Política
Imágenes paganas
Por Monserrat Neme
18 de julio de 2025
El caso de Julia Mengolini volvió a poner en debate el uso de las deepfakes. Lo que vemos, ¿es real o no? Da casi lo mismo. La inteligencia artificial permite producir contenido que, ética y socialmente, reconocemos como dañino, mientras la falta de regulación y el clima político se dan la mano. El presidente de la Nación se sube a la ola. Acción y reacción en la arena digital. El caso no solo expone un fenómeno mediático, sino que también revela cómo las deepfakes se están convirtiendo en herramientas de disputa simbólica, política y cultural, en un contexto donde el impacto lo es todo.
Un informe de Home Security Heroes (2023) revela que el 98 % de los videos deepfakes disponibles en línea tienen contenido pornográfico, y que el 99 % de las personas representadas en ellos son mujeres. ¿No estamos, entonces, frente a una actualización tecnológica de las viejas formas de castigo o, al menos, de disciplinamiento sobre los cuerpos y nuestra imagen?
El Papa Francisco vestido con una larga campera blanca: esa fue, para muchos, la primera deepfake que recuerdan. Hoy, crear una imagen manipulada como esa está a solo un par de clics. Cualquiera que se lo proponga puede hacerlo, con la misma facilidad con la que se hace una apuesta, o incluso más, porque ni siquiera hace falta dinero. Las motivaciones pueden ser muchas: acosar, castigar, hacer un meme, un sticker o simplemente un chiste entre amigos. No todas las deepfakes responden al mismo impulso, pero en la mayoría de los casos aparece un patrón en común.
El investigador Mariano Caputo propone pensar a los “sujetos del resentimiento” como una de las figuras centrales del ecosistema digital actual. No se trata de individuos aislados que explotan ocasionalmente, sino de identidades moldeadas y potenciadas por las dinámicas propias de las redes sociales. Estas plataformas, a través de lo que Caputo llama montaje algorítmico, no solo capturan emociones: las fabrican, las ordenan y las ponen a circular con lógica de mercado. En ese esquema, el resentimiento se destaca por su fuerza: engancha, polariza, genera clics. El trolleo no descansa: acecha, espera, y apenas surge una oportunidad, se desata el ritual de la caza digital en masa.
La reproducción masiva del trolleo, los ataques, las denuncias espontáneas o los linchamientos digitales no son fallas del sistema, sino partes activas de su funcionamiento. Expresan una necesidad de revancha. Sentirse ignorado, desplazado o humillado. Hoy, esa sensación encuentra canales inmediatos para multiplicarse. Como señala Caputo, el trolleo no es solo una descarga individual, sino una práctica colectiva, sostenida por una agresividad latente, siempre dispuesta a activarse ante cualquier oportunidad que permita avivar el ritual de la cacería digital.
Vivimos una era en la que las tecnologías digitales ya no median la experiencia: la reformatean según nuestras emociones y deseos. Ya no hay separación entre lo interno y lo externo. ¿El contenido es real? Poco importa. Alguien lo creyó, aunque sea por un segundo. Y ese segundo alcanza para que se viralice y entre en el flujo digital. El impacto se impone sobre la verdad.
Mauricio Macri lo vivió en carne propia: un video editado con su rostro pedía votar por Adorni por sobre su propia lista. ¿Alguien lo habrá creído? De nuevo: poco importa. El efecto fue suficiente para instalar una idea —que ante la polarización, solo había un voto útil— y provocar daño con apenas un minuto de video. Algo similar sucedió con Sergio Massa, quien en 2023 fue blanco de deepfakes que lo mostraban consumiendo drogas. Todo está guardado en la memoria.
Villano Antillano tiene la cara de Cristina Kirchner. Suena La villana, producida por Bizarrap. Mastica chicle como Rosalía. Javier Milei es fisicoculturista. Pelo limpio, veinte años menos. Buen upgrade. El desfile de imágenes mentales es inagotable. Para bien o para mal. ¿Hasta qué punto se alteran las reglas del juego? ¿Cuándo se rompió todo para volver a armarse de un modo que, hasta ahora, no conocíamos?
Las aulas y las deepfakes
Las deepfakes, al manipular imágenes, audios o videos de manera hiperrealista mediante inteligencia artificial, abren preguntas cada vez más inquietantes sobre su impacto en la salud mental, especialmente en etapas de alta exposición como la adolescencia. Este fenómeno, además, nunca estuvo limitado a figuras públicas. La difusión de contenidos falsos que colocan a personas en situaciones humillantes o comprometedoras puede tener efectos reales: ansiedad, retraimiento, pérdida de autoestima, angustia. En muchas escuelas de la Ciudad de Buenos Aires, empiezan a circular relatos de estudiantes que expresan su preocupación por el modo en que estos contenidos repercuten en sus vínculos, su imagen frente a otros y su estado de ánimo. Se trata de una problemática compleja, con múltiples aristas, atravesada por consumos también tecnológicos y formas de interacción que, en algunos casos, terminan reproduciendo lógicas de exposición, presión social o violencia simbólica. Las deepfakes se insertan así en un entramado más amplio que pone en tensión la construcción de identidad y el cuidado durante una etapa especialmente sensible.
El caso que hoy llega a juicio en Córdoba, donde un adolescente generó y distribuyó imágenes pornográficas falsas de al menos tres compañeras, ilustra cómo las herramientas digitales pueden ser utilizadas con fines de acoso, humillación y violencia. Este hecho, además, marcó un precedente judicial inédito en el país, al tratarse de un menor de edad acusado por la producción de deepfakes con fines sexuales. Por su parte, en la Ciudad de Buenos Aires, la circulación de contenidos similares a fines de 2024 —también entre adolescentes y en entornos escolares— encendió las alarmas y motivó la creación del «Protocolo Escolar ante situaciones de violencia digital», aprobado en diciembre de ese mismo año.
Las medidas son mayormente reactivas y no siempre contemplan la urgencia con la que estos contenidos se viralizan o el vacío legal que enfrentan las víctimas al momento de denunciar. La creación de material editado —incluidas las deepfakes— está contemplada como una forma de violencia digital, pero el abordaje integral que requieren estos casos aún no está garantizado en todos los niveles del sistema educativo.
Entre estudiantes secundarios de escuelas porteñas circula la percepción de que la exposición a imágenes y videos modificados con inteligencia artificial es cada vez más frecuente. Muchas veces estos contenidos se comparten con fines humorísticos o como parte de dinámicas cotidianas, pero lo que comienza como un chiste o un meme puede terminar vulnerando la intimidad de quienes aparecen en ellos, con consecuencias concretas en su estado anímico y los vínculos que sostienen. A esto se suma cierta desorientación respecto a qué hacer ante estas situaciones: no siempre está claro si existen formas efectivas de denunciar o defenderse frente a este tipo de contenidos.
¿Quién regula esto? ¿Qué pasa si alguien genera una imagen tuya desnuda y la sube a internet sin tu consentimiento? ¿Y si esa imagen ni siquiera es real, pero igual te expone, te vulnera, te marca frente a los demás? Hoy en Argentina contamos con algunos avances, como la Ley Olimpia (27.736) del 2023, que incorpora la violencia digital dentro de las formas de violencia de género. También hubo resoluciones judiciales que ordenaron el bloqueo de aplicaciones utilizadas para generar desnudos falsos de adolescentes.
Pero la verdad es que seguimos reaccionando caso por caso, sin un marco integral que contemple los desafíos que plantea la inteligencia artificial, la manipulación de imágenes y la viralización sin control. Tampoco existen figuras penales específicas para sancionar la creación o difusión de estos contenidos manipulados.
A eso se suma una complejidad mayor: muchos de estos episodios ocurren entre pares, en entornos escolares, entre adolescentes que también son menores de edad. Por eso, además de regulación, hace falta una mirada particular, que no solo proteja a las víctimas, sino que entienda los contextos, acompañe los procesos y no se limite a buscar culpables. Faltan protocolos claros, mecanismos ágiles de denuncia, regulaciones para las plataformas. Y, sobre todo, falta que el Estado y la justicia actúen a la altura del problema.
Moverse al compás de la época debería tener la velocidad de un prompteo y un enter. El ritmo vertiginoso de la inteligencia generativa avanza hacia un escenario donde incluso las órdenes humanas podrían dejar de ser necesarias. Los modelos de lenguaje tienen el potencial de automatizar tareas a una escala inédita, pero no la reflexión ética. Porque si la tecnología acelera, la responsabilidad debe profundizarse. Y en ese cruce, lo humano es imprescindible. La ética —como principio rector, como límite y como guía— no será nunca automatizable. Será, necesariamente, una decisión política y colectiva.
¡Viva ¿qué libertad?… carajo!
Por Marco Mallamaci
La verdad del corazón y el ojo del amo
Por Guido Estañaro
Cine para soñar
Por Lucía Amatriain y Úrsula Schneider


