Las imágenes son brutales, una entrenadora junto a una orca en un parque acuático, de repente, el animal se abalanza sobre ella, la hunde y el agua se tiñe de rojo. En cuestión de segundos, el video se volvió viral. Sin embargo, lo que parecía una tragedia real era, en realidad, un falso ataque, una elaborada ficción generada por inteligencia artificial.
Hacete socio para acceder a este contenido
Para continuar, hacete socio de Caras y Caretas. Si ya formas parte de la comunidad, inicia sesión.
ASOCIARMECaras y Caretas Diario
En tu email todos los días
En las imágenes se identificaba al lugar como Pacific Blue Marine Park y a la víctima como Jessica Radcliffe. Todo parecía creíble, el nombre de la entrenadora, la ubicación del parque, secuencia del ataque. Pero había un detalle, ni el parque ni la mujer existen. No hay registros, ni direcciones, ni entrevistas previas que los vinculen con el mundo real. El montaje era tan convincente que logró engañar a miles de personas en todo el mundo.


La pieza, una deepfake de alta calidad, combinaba movimientos fluidos, sonidos realistas y voces superpuestas para reforzar la verosimilitud. La potencia de la inteligencia artificial hizo que el límite entre la realidad y la ficción se volviera difuso. Para muchos usuarios, la pregunta no era si era cierto, sino cómo había ocurrido y quién era el responsable.
Para detectar la trampa
Detectar este tipo de engaños no es sencillo, pero los especialistas recomiendan algunos pasos para evitar caer en noticias falsas:
-
Buscar la noticia en medios confiables: si ningún medio reconocido la publica, es probable que sea falsa.
Analizar el contenido visual: prestar atención a posibles errores en movimientos, iluminación o proporciones de los objetos y personas.
Confirmar la existencia de personas y lugares: aunque parezca obvio, verificar si los nombres y sitios son reales puede revelar el fraude.
Usar búsqueda inversa de imágenes o videos: permite rastrear la primera vez que el material apareció en internet.
Revisar fecha y contexto: muchas veces se reutilizan imágenes antiguas o de otro suceso para presentarlas como recientes.
La viralización de este video pone de relieve un fenómeno creciente, la sofisticación de los contenidos falsos y la dificultad que enfrentan los usuarios para distinguirlos de los reales.
Orcas y ataques reales
Aunque el caso de Jessica Radcliffe sea ficticio, es cierto que las orcas pueden atacar a seres humanos, especialmente en cautiverio. Son mamíferos marinos muy inteligentes, con complejas estrategias de caza y vocalizaciones únicas en cada población.
En libertad, las orcas rara vez atacan a las personas. Sin embargo, en entornos artificiales, su comportamiento puede cambiar. El cautiverio, con sus tanques de cemento y rutinas forzadas, les provoca estrés crónico y, en algunos casos, conductas agresivas. Los especialistas señalan que los incidentes suelen ocurrir cuando se sienten amenazadas, se acercan a sus crías o son molestadas mientras se alimentan.
Casos documentados en parques acuáticos han mostrado ataques fatales a entrenadores, lo que ha reavivado el debate sobre si estos animales deben permanecer en cautiverio. Para los defensores de los derechos de los animales, el mensaje es que las orcas no están hechas para vivir encerradas y el entretenimiento humano no justifica el riesgo.
Entre la fascinación y el peligro de la IA
La historia del falso ataque de orca es un ejemplo extremo de cómo la inteligencia artificial puede crear realidades inexistentes con un alto poder de persuasión. Lo que hace unos años era dominio exclusivo de producciones cinematográficas ahora puede hacerse desde un ordenador personal.
Esto plantea desafíos urgentes para las plataformas digitales, los medios y los usuarios, establecer mecanismos de verificación más sólidos, fomentar la alfabetización mediática y no dejarse arrastrar por la inmediatez de las emociones que generan las imágenes impactantes.