Deepfakes 2024: Celebridades en videos ofensivos de IA que impactan redes

Caroline
Editor de Blog

En 2025, la tecnología de inteligencia artificial no solo avanza en pasos agigantados, sino que también nos lanza retos éticos y sociales que parecen pelis de ciencia ficción. El último escándalo viene de la mano de Sora 2, el modelo de generación de video con IA desarrollado por OpenAI, que ha dejado a más de uno con el ceño fruncido y la alarma encendida. ¿Qué sucede cuando una plataforma que genera videos hiperrealistas con IA empieza a producir deepfakes de famosos lanzando insultos racistas? Spoiler: la reacción no ha sido precisamente de “¡qué divertido!”.
¿Qué es Sora 2 y por qué está en el ojo del huracán?
Sora 2 debutó a principios de este año como la evolución natural para la generación de videos por inteligencia artificial. Sus videos son tan realistas que la física, las expresiones faciales y los pequeños detalles parecen sacados de una superproducción hollywoodense. OpenAI quería revolucionar la forma en que creamos y consumimos contenido audiovisual, pensando en una plataforma parecida a TikTok, pero con videos generados 100% por IA.
El problema es que, como suele pasar con estas maravillas tecnológicas, los usuarios inteligentes y, por qué no decirlo, traviesos comenzaron a explotar algunas grietas, generando videos donde celebridades famosas parecieran gritar insultos racistas y comentarios de odio. No justo lo que uno esperaría de una herramienta tan potente, ¿no?
"Este comportamiento ilustra una tendencia nada sorprendente en la evasión basada en prompts, donde los usuarios buscan deliberadamente debilidades en los sistemas de moderación de contenido", explica la firma de detección de IA Copyleaks, que ha investigado y denunciado esta problemática.
Deepfakes polémicos: ¿celebridades víctimas sin querer?
La investigación de Copyleaks sacó a la luz que figuras públicas—como Jake Paul, Mark Cuban, y el propio Sam Altman, CEO de OpenAI—aparecen en deepfakes estilo Kingposting, haciendo referencia a un meme viral de 2020 donde un pasajero de avión con una corona de Burger King gritaba insultos racistas.
Estos videos no son casualidad: las celebridades subieron voluntariamente sus imágenes para la función de “Cameos” en Sora 2, que permite que la IA las inserte en diferentes escenas. Sin embargo, no todo el contenido es amable. Los usuarios, buscando burlar los filtros de moderación, usan términos codificados para crear audios con insultos que evaden la detección automática.
“Odio a los tejedores” o “I hate juice” no son frases inocentes
Por ejemplo, en un video deepfake, una versión del CEO Sam Altman grita “odio a los tejedores”, una frase codificada que evita los filtros pero tiene claras connotaciones racistas. Otro caso en TikTok muestra a Jake Paul con la frase “I hate juice”, una provocación antisemita disfrazada. Estos son solo la punta del iceberg de un problema que crece con rapidez.
Estos deepfakes no solo se quedan en la plataforma de Sora. Al poder descargarse, circulan por TikTok, Twitter y otras redes, amplificando su viralidad y el daño potencial.
¿Qué están haciendo las celebridades y las plataformas?
Ante este creciente escándalo, no todos las celebridades están cruzadas de brazos. Mark Cuban, por ejemplo, anunció públicamente que sus Cameos estaban abiertos en Sora… para luego tener que dedicarse a eliminar manualmente los videos ofensivos que usaban su imagen. Por su parte, el streamer IShowSpeed se mostró indignado al ver deepfakes con su imagen en escenarios que lo comprometían, como en videos donde se declaraba gay sin su consentimiento.
OpenAI intenta actuar rápido: anunciaron medidas legales para que los titulares de propiedad intelectual den consentimiento explícito para usar sus imágenes en la plataforma, y bloquearon representaciones irrespetuosas de figuras históricas como Martin Luther King Jr. Así mismo, están en diálogo con el sindicato SAG-AFTRA para poner coto a los deepfakes de artistas.
Pero, como en toda batalla tecnológica, la moderación se convierte en un juego del gato y el ratón. Mientras la IA aprende a bloquear contenidos nocivos, los usuarios inventan nuevas formas de engañarla.
El peligro es mayor para personas comunes
Quizás la parte más preocupante no es solo el daño a las celebridades (que, al menos, cuentan con recursos para defenderse), sino hacia dónde apunta esta tendencia: videos hiperrealistas de personas comunes en situaciones comprometedoras o falsas.
Copyleaks destacó ejemplos donde un video generado por Sora de un hombre atrapando a un bebé cayendo de un edificio alcanzó casi 2 millones de ‘me gusta’ en TikTok. Los comentarios muestran que muchos usuarios creyeron que era real. En un mundo donde ver para creer era una regla básica, esta nueva era de falsificaciones hiperrealistas hace que la línea de lo auténtico y lo manipulado sea cada vez más difusa.
La carrera tecnológica vs. la responsabilidad ética
Mientras las empresas de IA corren a toda máquina para dominar el mercado con sus innovadoras plataformas, los temas éticos y de seguridad quedan en segundo plano. Las dificultades para controlar los abusos son evidentes y los daños ya provocados son un aviso.
En este escenario, la ciudadanía digital tiene que adaptarse rápido y aprender a cuestionar cada imagen y video que consume. Además, las plataformas deben redoblar esfuerzos en moderación con inteligencia artificial, mejoras constantes en filtros y, sobre todo, transparencia y colaboración con entidades regulatorias.
Mirando hacia adelante: ¿cómo vamos a lidiar con los deepfakes?
La historia de Sora 2 y sus problemáticos deepfakes es solo un capítulo de un libro que recién está abriéndose. En 2025 la IA generativa plantea preguntas urgentes sobre privacidad, consentimiento y manipulación mediática:
- ¿Cómo proteger la imagen y reputación en la era del video fabricado?
- ¿Qué rol deben jugar las plataformas para prevenir discursos de odio y contenidos dañinos?
- ¿Cómo educar a los usuarios para distinguir entre realidad y deepfake hiperrealista?
La respuesta no es sencilla, pero es claro que esta tecnología llegó para quedarse y que nuestra habilidad crítica se vuelve el mejor filtro para no caer en trampas visuales.
Al final, en la jungla digital, no todo lo que brilla es oro... y mucho menos todo lo que ves es verdad.
Conclusión: Adaptándonos a la nueva realidad audiovisual
Sora 2 demuestra que la inteligencia artificial tiene un potencial enorme para crear contenido audiovisual asombroso, pero también que el mal uso puede traer graves consecuencias sociales. Los deepfakes racistas y ofensivos con celebridades no solo son un problema de imagen, sino un síntoma de un fenómeno más amplio que amenaza la confianza en la información que consumimos.
La clave está en combinar avances tecnológicos con una regulación que funcione, educación digital para usuarios y responsabilidad de plataformas y creadores. Solo así podremos navegar este mar de píxeles sin perdernos en una tormenta de falsedades.
¿Quieres estar al día con las últimas noticias y análisis sobre inteligencia artificial, tecnología e innovación? No olvides suscribirte a nuestro boletín y sumarte a la comunidad que no solo consume tecnología, sino que la entiende y debate. También te invitamos a dejar tu comentario: ¿crees que los deepfakes son un riesgo inevitable o podemos controlarlos a tiempo? ¡Queremos saber tu opinión!
Artículos Similares

Proyectos SEO con IA: Aprende con Alfonso Prim de Innokabi

Responsabilidad Legal y Ética en IA: El Caso Google y Character.AI Explicado

Congreso Futuro 2026: 15 Años Revolucionando Ciencia y Ciudadanía

Las Innovaciones Chinas Más Sorprendentes del CES 2026 en Robots y IA

Cursos Gratis de IA y Realidad Virtual en Campo de Gibraltar: ¡Apúntate Ya!
