Una imagen imposible. Dos niños con rasgos infantiles pero barbas espesas. Una calle inundada bajo lluvia torrencial. Un pastel de cumpleaños encendido en medio del caos. Un cartel que pide “me gusta”.
Nada tenía sentido. Y, sin embargo, acumuló casi un millón de reacciones en Facebook.
Ese tipo de contenido —falso, exagerado, emocionalmente manipulador y técnicamente descuidado— se ha convertido en parte estructural del ecosistema digital. No es un accidente ni una moda pasajera: es el resultado de la tercera transformación profunda de las redes sociales, impulsada por la inteligencia artificial.
La “tercera fase” de las redes sociales
El propio Mark Zuckerberg lo expresó ante inversionistas al explicar que las plataformas han entrado en una nueva etapa: después del contenido de amigos y del auge de los creadores, ahora llega la fase del contenido generado o amplificado por IA.
Meta —empresa matriz de Meta— no solo permite este tipo de publicaciones en Facebook, Instagram y Threads, sino que promueve herramientas para producirlas: generadores de imágenes, filtros avanzados y sistemas de edición automatizada.
La lógica es clara: más contenido significa más tiempo en pantalla. Más tiempo en pantalla, más ingresos.
El director ejecutivo de YouTube, Neal Mohan, también ha reconocido el fenómeno. Tan solo en diciembre, más de un millón de canales utilizaron herramientas de IA para producir videos. Aunque la plataforma afirma estar trabajando para reducir el “contenido repetitivo y de baja calidad”, la avalancha no se detiene.
La economía detrás del absurdo
La proliferación de estas imágenes y videos no es espontánea. Está impulsada por la economía de la atención.
Según un estudio de la empresa de inteligencia artificial Kapwing, el 20 % del contenido que recibe una cuenta nueva de YouTube corresponde a videos generados por IA de baja calidad. En formatos cortos, la presencia es aún mayor.
¿Por qué? Porque funciona.
Un canal indio llamado Bandar Apna Dost ha acumulado más de 2.000 millones de visualizaciones con este tipo de contenido, generando millones de dólares en ingresos estimados. La ecuación es brutalmente simple: producir barato, publicar masivamente, capturar clics emocionales.
Ni siquiera importa si el contenido es absurdo. Basta con que provoque curiosidad, ternura, indignación o sorpresa.
¿La gente no se da cuenta?
Muchos sí. Y cada vez más.
En TikTok, Instagram o X, es frecuente ver comentarios con más “me gusta” que la publicación original, criticando el uso descarado de IA. Videos de rescates imposibles, animales heroicos o catástrofes emotivas suelen acumular miles de respuestas denunciando la manipulación.
Pero aquí está la paradoja: incluso el rechazo alimenta el algoritmo. Cada comentario, cada interacción —positiva o negativa— aumenta la visibilidad del contenido.
La indignación también monetiza.
El riesgo de la “podredumbre cerebral”
Investigadores como Alessandro Galeazzi, de la Universidad de Padua, advierten que esta saturación podría afectar la capacidad de atención. No todo el contenido generado con IA busca engañar; algunos videos son claramente fantasiosos —gorilas musculosos levantando pesas o peces con zapatos—, pero incluso ese consumo acelerado puede reforzar hábitos de distracción superficial.
El problema se agrava cuando el contenido pretende ser real: documentales falsos, escenas históricas inventadas o conflictos manipulados. En estos casos, distinguir entre ficción y realidad requiere esfuerzo mental constante.
Y la fatiga cognitiva es terreno fértil para la desinformación.
Moderación debilitada y responsabilidad diluida
Mientras la IA se vuelve más sofisticada, la moderación humana se reduce. Varias plataformas han recortado equipos y optado por modelos de verificación comunitaria, trasladando parte de la responsabilidad a los usuarios.
El resultado es un entorno donde detectar lo falso es cada vez más difícil. Como señala Manny Ahmed, de OpenOrigins, el desafío ya no es solo identificar lo falso, sino permitir que el contenido auténtico pueda demostrar su origen verificable.
El debate ya no es tecnológico. Es estructural.
¿Puede existir una red social sin “basura”?
Es poco probable que surja una plataforma completamente libre de contenido generado por IA. La detección automática es imperfecta y el criterio de “baja calidad” es subjetivo. Lo que hoy parece absurdo, mañana puede convertirse en tendencia cultural.
Sin embargo, fenómenos como BeReal —la aplicación francesa que promueve fotos espontáneas sin filtros— demostraron que existe apetito por autenticidad. Aunque no desplazó a gigantes como Facebook o Snapchat, sí influyó en el discurso sobre lo “real”.
La pregunta es si esa demanda será suficiente para equilibrar la actual lógica de producción masiva automatizada.
La nueva normalidad digital
La inteligencia artificial llegó para quedarse. No toda es perjudicial; puede potenciar creatividad, accesibilidad y expresión artística. El problema no es la herramienta, sino su uso orientado exclusivamente a la viralidad rápida.
Las imágenes absurdas que hoy dominan los muros no son solo entretenimiento extraño: son el síntoma de un ecosistema donde la velocidad supera a la veracidad y la emoción reemplaza a la reflexión.
Y en esa transformación, los usuarios no son espectadores pasivos. Cada clic decide qué tipo de red social prevalece.

