La inteligencia artificial sufre brain rot, según expertos
Todo indica que entrenar a los modelos de inteligencia artificial con contenidos virales y de baja calidad de redes sociales puede deteriorar su capacidad de razonamiento.
Los modelos de inteligencia artificial pueden deteriorarse si se entrenan con contenido viral o de baja calidad.
Adobe StockLos modelos de inteligencia artificial no están exentos de los efectos de la saturación digital. Un estudio conjunto de las universidades de Texas en Austin, Texas A&M y Purdue, citado por WIRED, demuestra que alimentar a los chatbots con contenido popular pero superficial puede provocar un fenómeno que los investigadores llaman “podredumbre mental” o brain rot, una suerte de degradación cognitiva similar a lo que ocurre en los humanos tras horas de consumo de redes sociales.
Qué descubrieron los investigadores
El equipo liderado por Junyuan Hong, profesor asistente de la Universidad Nacional de Singapur, decidió probar cómo influye la calidad del texto en el rendimiento de dos modelos de lenguaje de código abierto: Llama, de Meta, y Qwen, de Alibaba. Ambos fueron entrenados con diferentes tipos de contenido, desde publicaciones virales y sensacionalistas hasta textos más informativos y neutrales.
Los resultados fueron contundentes: los modelos expuestos a texto “basura” mostraron una disminución en su capacidad de razonamiento, memoria y comprensión contextual. Además, se volvieron menos éticos y más propensos a emitir respuestas erráticas o agresivas, según indicadores psicométricos aplicados por los investigadores.
-
Te puede interesar
Inteligencia Artificial, cómo la usa el periodismo en Argentina
El fenómeno del brain rot
La expresión “brain rot” no es nueva: fue registrada por primera vez en 1854 por el escritor Henry David Thoreau en su libro Walden, aunque su uso contemporáneo se popularizó en redes para describir la fatiga mental causada por el exceso de estímulos digitales. En 2024, el término fue elegido como "Palabra del Año" por el Diccionario Oxford, reflejando su relevancia cultural.
Este estudio no solo alerta sobre el impacto del contenido basura en los humanos, sino también en los sistemas que están modelando el futuro digital. Según Hong, “entrenarse con contenidos virales puede parecer que amplía los datos, pero en realidad corroe silenciosamente el razonamiento, la ética y la atención al contexto largo”.
Con la IA podrida, el futuro de los contenidos se complica
El riesgo más grande es que las propias IA están generando cada vez más contenido para redes sociales, retroalimentando un ciclo de información de baja calidad. Los investigadores advirtieron que los modelos deteriorados por el brain rot no pueden recuperarse fácilmente ni siquiera con nuevos entrenamientos “limpios”.
La IA también puede “pudrirse” si aprende de basura viral.
Esto plantea un desafío para plataformas que integran inteligencia artificial, como Grok o ChatGPT, si los datos de entrenamiento provienen de redes sociales sin control de calidad. “A medida que se difunde más basura generada por IA, se contaminan los datos de los que aprenderán los futuros modelos. Una vez instalada la podredumbre, no se puede revertir del todo”, concluyó Hong.