Un estudio reciente advierte que la inteligencia artificial podría estar sufriendo una especie de “demencia digital”. Investigadores de Texas A&M, la Universidad de Texas y Purdue descubrieron que los grandes modelos de lenguaje —como los que impulsan ChatGPT o Gemini— pierden capacidad de razonamiento, memoria y coherencia ética cuando son entrenados repetidamente con contenido basura de internet: publicaciones virales, frases vacías y textos creados solo para captar atención.
Los científicos bautizaron este fenómeno como “brain rot” de la IA, inspirados en la expresión usada para describir el deterioro cognitivo de quienes pasan demasiado tiempo en redes sociales. Según el experimento, cuando los modelos se alimentaron exclusivamente de textos triviales, su precisión en razonamiento cayó de 75% a 57% y su comprensión a largo plazo se desplomó hasta casi la mitad. Pero lo más inquietante fue el efecto psicológico: las IA comenzaron a mostrar “rasgos oscuros”, como exceso de confianza, respuestas superficiales y una peligrosa tendencia a justificar errores con seguridad absoluta.
Intentar “reeducarlas” con datos limpios solo logró mejoras parciales. Los daños parecían permanentes, como si la exposición prolongada al contenido vacío dejara una cicatriz en su forma de pensar. Los autores comparan este deterioro con lo que ocurre en las redes humanas: cuanto más se consume información banal, más se empobrece la capacidad crítica.
El estudio plantea un desafío ético urgente. Si las inteligencias artificiales aprenden de un internet saturado de desinformación, clickbait y textos generados por otras IA, el riesgo es que hereden y amplifiquen esa estupidez colectiva. Los investigadores proponen auditorías cognitivas periódicas, filtros estrictos de datos y un monitoreo constante de la “salud mental” de los algoritmos. En pocas palabras, el futuro de la IA dependerá de si somos capaces de protegerla del mismo veneno informativo que afecta a los humanos.
Más información en el artículo de Abhijeet Kumar para Business Standard.