Overview:

Un paper del MIT y el NBER advierte que la inteligencia artificial puede destruir el acervo colectivo de conocimiento humano a largo plazo. Lo llaman “colapso del conocimiento”

Un estudio del MIT y el NBER advierte que la inteligencia artificial agente, cuanto más precisa, más cerca está de vaciar el ecosistema de conocimiento que sostiene a la civilización.

Imagina un médico que ya no necesita investigar síntomas porque una IA le dice exactamente qué recetar. O un inversionista que delega cada decisión a un agente automatizado. A corto plazo, las decisiones mejoran. A largo plazo, nadie sabe ya cómo tomar esas decisiones por sí mismo. Ese escenario —que suena a ciencia ficción— es el núcleo de una de las advertencias académicas más importantes publicadas en lo que va de 2026.

En febrero de este año, Daron Acemoglu, junto con Dingwen Kong y Asuman Ozdaglar del MIT, publicaron el documento de trabajo del NBER número 34910, titulado “AI, Human Cognition and Knowledge Collapse”.

El paper formula una advertencia rigurosa: los sistemas de IA generativa y, en particular, la IA agéntica puede desencadenar un peligroso ciclo de retroalimentación a largo plazo que erosiona la base de conocimiento compartido de la sociedad.

Dos tipos de conocimiento y un frágil equilibrio

El modelo que proponen los investigadores parte de una distinción fundamental. Para tomar buenas decisiones, los seres humanos combinan dos tipos de información que se complementan entre sí: el conocimiento general —principios médicos, instrumentos financieros, marcos conceptuales compartidos por una comunidad— y el conocimiento específico del contexto —los síntomas particulares de un paciente, la tolerancia al riesgo de un inversor concreto.

El aprendizaje exhibe economías de alcance: el esfuerzo humano costoso genera simultáneamente una señal privada sobre el propio contexto y una señal pública “delgada” que se acumula en el acervo de conocimiento general de la comunidad, creando una externalidad de aprendizaje. 

Ahí reside la tensión central del problema. Cuando una persona estudia, investiga o resuelve un problema por sí misma, no solo se beneficia individualmente: también contribuye al bien colectivo. Ese aporte, invisible pero acumulativo, es el cemento del ecosistema de información sobre el que se construye el progreso.

La IA como sustituto del esfuerzo

La IA agéntica entrega recomendaciones específicas para cada contexto que sustituyen el esfuerzo humano. Por el contrario, un acervo más rico de conocimiento general complementa el esfuerzo humano al elevar su retorno marginal. 

Este es el dilema. Si la IA es suficientemente precisa y accesible, los humanos dejan de invertir en aprender. Y si dejan de aprender, dejan de generar esas señales públicas que alimentan el conocimiento colectivo.

Cuando el esfuerzo humano es suficientemente elástico y las recomendaciones de la IA superan un umbral de precisión, puede inclinarse hacia un estado de equilibrio de “colapso del conocimiento”, en el que el conocimiento general desaparece en última instancia, a pesar de los consejos personalizados de alta calidad.

knowledge collapse

El nombre técnico que le dan los autores —knowledge collapse— resume bien la paradoja: la misma herramienta que mejora las decisiones individuales puede destruir la infraestructura cognitiva colectiva.

El paper de Acemoglu, Kong y Ozdaglar es un modelo teórico, pero no existe en el vacío. La evidencia empírica de que la IA está afectando el aprendizaje humano se ha acumulado en paralelo.

En junio de 2025, investigadores del MIT Media Lab publicaron el estudio “Your Brain on ChatGPT”, que midió la actividad cerebral de estudiantes universitarios mientras escribían ensayos con y sin asistencia de inteligencia artificial.

Quienes usaron modelos de lenguaje como ChatGPT mostraron una activación cerebral significativamente menor que quienes no lo hicieron, y fueron incapaces de recordar lo que habían “escrito” apenas minutos después.

Los investigadores acuñaron el término “deuda cognitiva” para describir cómo los modelos de lenguaje ahorran esfuerzo mental a corto plazo pero generan costos a largo plazo, incluyendo pensamiento crítico reducido, menor creatividad, mayor vulnerabilidad al sesgo y procesamiento superficial de la información. 

El grupo que redactó los ensayos sin herramientas digitales mostró la mayor conectividad neural y el procesamiento semántico. En cambio, los ensayos del grupo que usó ChatGPT resultaron altamente similares entre sí en vocabulario y estructura, con creatividad y originalidad disminuidas.

Estudios adicionales muestran cómo el uso de la IA está impactando negativamente el esfuerzo de aprendizaje humano y, en algunos casos, incluso la capacidad cognitiva misma. 

El bienestar social no crece de forma lineal. Una de las conclusiones más contraintuitivas del paper es que más precisión en la IA no equivale a más bienestar social.

El bienestar es generalmente no monótono respecto a la precisión de la IA, lo que implica que existe un nivel de precisión óptimo que maximiza el bienestar a largo plazo. 

Dicho de otro modo: una IA moderadamente precisa puede ser mejor para la sociedad que una IA extremadamente precisa, porque la primera aún deja espacio para que los humanos ejerciten su esfuerzo cognitivo y contribuyan al conocimiento colectivo.

Hay, sin embargo, un factor que sí mejora el bienestar de manera inequívoca: la capacidad de agregar y compartir conocimiento.

Una mayor capacidad de agregación —comunidades más grandes, plataformas abiertas— emerge como una contramedida robusta frente al colapso del conocimiento.  Las herramientas que facilitan que las personas compartan lo que aprenden —desde foros especializados hasta repositorios académicos abiertos— actúan como un antídoto sistémico.

La señal de alarma en Stack Overflow

Plataformas como Stack Overflow ya reportan una caída en las contribuciones humanas en los sectores donde la IA las sustituye de manera efectiva.

Stack Overflow, el mayor repositorio colaborativo de conocimiento técnico del mundo, ha documentado públicamente que el volumen de preguntas y respuestas nuevas ha declinado desde la llegada masiva de asistentes de código con IA.

Lo que está ocurriendo allí es exactamente el mecanismo que describe el modelo de Acemoglu: cuando los programadores obtienen respuestas directas de una IA, dejan de publicar sus dudas y sus soluciones.

El beneficio individual es inmediato; el costo colectivo es la degradación del repositorio que alimenta a los propios modelos de IA del futuro.

La posibilidad real del colapso

Dada la posibilidad del colapso, los autores del paper abogan por lo que denominan regulaciones de diseño de información. La propuesta más provocadora es el “garbling” deliberado: introducir límites a la precisión de las recomendaciones de la IA para preservar los incentivos humanos al aprendizaje.

El bienestar generalmente no es monótono respecto a la precisión de la IA, lo que implica un nivel óptimo de precisión que maximiza el bienestar y justifica regulaciones de diseño de información. 

La idea puede sonar paradójica —¿regular la precisión de una herramienta para que funcione peor?— pero la lógica es la misma que la de las políticas de competencia económica: un mercado que destruye a sus propios participantes no es sostenible. Un ecosistema de conocimiento que desincentiva la producción de nuevo conocimiento tampoco lo es.

El paper de Acemoglu, Kong y Ozdaglar no es un llamado al ludismo tecnológico. Es una demanda de sofisticación en el diseño de políticas públicas y en la arquitectura de los sistemas de IA.

La IA no controlada no solo desplaza trabajo: puede vaciar la infraestructura cognitiva que hace posible el progreso humano. 

La pregunta que queda sobre la mesa no es si la IA es útil —lo es, de manera demostrable— sino si estamos diseñando los incentivos correctos para que su utilidad no se convierta, a largo plazo, en una trampa. Una civilización que delega el pensar termina, eventualmente, sin saber cómo hacerlo.

Fuentes:

• Acemoglu, D., Kong, D., & Ozdaglar, A. (2026). AI, Human Cognition and Knowledge Collapse. NBER Working Paper 34910. nber.org/papers/w34910


• Kosmyna, N. et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. MIT Media Lab / arXiv:2506.08872. media.mit.edu