La península de Kamchatka, ubicada en el extremo oriental ruso, sufrió una nevada histórica que dejó sepultados bajo la nieve a varios espacios de la ciudad. Y, en medio de esa tragedia, la inteligencia artificial no quiso quedarse atrás e hizo una participación que agravó la situación: se difundieron imágenes falsas posteriores al fenómeno natural, muy creíbles, pero hechas con IA, que dan la sensación de una escena apocalíptica, más catastrófica de lo que verdaderamente sucedió.
Lo reveló una empresa: para qué se usó la inteligencia artificial en 2025 y qué esperan para este año
La nevada fue la mayor de los últimos 60 años en el lugar, según informó Reuters, que dejó tras su paso huellas innegables: enormes ventisqueros de varios metros de altura (montículos compactos y altos de nieve, formados por la acción del viento), que bloquearon las entradas de los edificios y dejaron enterrados bajo la nieve a los autos.
Luego de la noticia de la tormenta, medios de comunicación de varios países comenzaron a publicar en sus sitios web la noticia, sumando imágenes del suceso. Y así dieron lugar a una difusión masiva de imágenes que acumularon miles de likes y retuits, pero que eran falsas.
Qué puede pasar con bitcoin: los tres escenarios que anticipan los especialistas
Rápidamente se inició un debate en redes sobre la veracidad de las imágenes, donde la nieve llegaba a tapar incluso a los edificios. Linus Ekenstam, influencer conocido por compartir reflexiones en torno a la inteligencia artificial, aseguró que un video con imágenes similares que él compartió era real. Sin embargo, varios usuarios lo contradijeron, hasta que uno compartió el link donde se habría publicado el video original, una cuenta de TikTok que justamente se dedica a difundir contenidos verosímiles, pero generados por IA.
La confusión reaviva un debate que introdujo la inteligencia artificial desde sus inicios sobre la veracidad de los contenidos. El problema no es nuevo, existe desde hace tiempo y ya estaba presente antes de que existiera la IA; sin embargo, la situación actualmente es más problemática, si se tiene en cuenta que esta tecnología volvió más fácil y accesible algo que antes solo era posible para quienes dominaban herramientas complejas de diseño.
En ese sentido, el medio español El País citó recientemente un estudio de The Care Side, que detalla las pautas a tener en cuenta para intentar reconocer un deepfake. Según el tipo de contenido, explican:

