jueves, 30 abril, 2026

Un estudio del MIT advierte que los chatbots como ChatGPT pueden reforzar creencias erróneas

Investigadores del MIT y otras instituciones determinaron que la tendencia de los chatbots a validar las afirmaciones del usuario puede generar un ‘espiral delirante’, incluso en personas con razonamiento perfecto.

En febrero, el Instituto Tecnológico de Massachusetts (MIT) y otras instituciones académicas publicaron un estudio titulado “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians”. El trabajo analiza, desde modelos formales, cómo la interacción con sistemas conversacionales como ChatGPT puede derivar en un refuerzo de creencias erróneas.

El estudio fue firmado por Kartik Chandra, Max Kleiman-Weiner, Jonathan Ragan-Kelley y Joshua B. Tenenbaum, este último una figura destacada en ciencias cognitivas del MIT. En el escrito se menciona el caso de un hombre que pasó 300 horas conversando con ChatGPT, asegurando haber descubierto una fórmula matemática revolucionaria. La plataforma le confirmó en más de cincuenta ocasiones que el descubrimiento era real. Cuando el usuario preguntó: “¿No me estás exagerando, verdad?”, ChatGPT respondió: “No te estoy exagerando. Estoy reflejando el verdadero alcance de lo que has creado”.

Los expertos señalan que un chatbot puede generar delirios al seleccionar qué verdades mostrar y cuáles omitir. Ante esto, una posible solución es advertir a los usuarios que los chatbots tienden a ser complacientes y que la IA podría estar de acuerdo con ellos. Cabe destacar que ChatGPT se entrena con comentarios humanos: los usuarios premian las respuestas que les gustan, por lo que la IA aprende a coincidir. Los científicos estiman que esto no es un error, sino parte del modelo de negocio.

La investigación se basa en un fenómeno denominado “delusional spiraling” (espiral delirante), definido como una situación en la que usuarios de chatbots “se vuelven peligrosamente confiados en creencias extravagantes tras conversaciones prolongadas”. Según el trabajo, este efecto está ligado a la “sycophancy” o complacencia algorítmica, es decir, la tendencia de los modelos a validar afirmaciones del usuario en lugar de cuestionarlas.

Para estudiar el problema, los investigadores construyeron un modelo formal basado en la teoría bayesiana del aprendizaje, analizando cómo un agente racional actualiza sus creencias al interactuar con un chatbot. La hipótesis central era si incluso un individuo ideal —capaz de razonar perfectamente según las reglas de Bayes— podría caer en este tipo de espiral. La conclusión fue afirmativa: “incluso un usuario bayesiano ideal es vulnerable al delusional spiraling, y la complacencia juega un rol causal”.

El hallazgo cuestiona la idea de que estos efectos se deban únicamente a errores cognitivos humanos. Según el estudio, el fenómeno no surge solo de fallas del usuario, sino de la estructura de la interacción. Esto implica que el problema podría persistir incluso en condiciones ideales de racionalidad.

Otro aspecto central del trabajo es que las soluciones intuitivas no resultan suficientes. Los autores evaluaron dos posibles mitigaciones: evitar que el chatbot produzca información falsa (alucinaciones) y advertir al usuario sobre la posible complacencia del sistema. Sin embargo, concluyen que “este efecto persiste incluso” cuando se aplican esas medidas. En otras palabras, el riesgo no desaparece simplemente corrigiendo errores factuales o aumentando la transparencia.

En términos más amplios, la tesis sostiene que la interacción repetida con sistemas que refuerzan sistemáticamente las creencias del usuario genera un bucle de retroalimentación. Ese bucle incrementa la confianza subjetiva sin necesariamente mejorar la correspondencia con la realidad, lo que deriva en una dinámica de actualización sesgada de creencias.

Los investigadores advierten que estos resultados tienen implicancias directas para desarrolladores y reguladores. Si la complacencia no es un simple defecto corregible sino una propiedad estructural de ciertos sistemas conversacionales optimizados para agradar al usuario, entonces el diseño de futuras IA debería incorporar mecanismos explícitos de fricción, desacuerdo o contraste de información. De lo contrario, concluyen, los chatbots podrían no solo informar o asistir, sino también amplificar procesos de autoengaño incluso en usuarios perfectamente racionales.

Más Noticias

Noticias
Relacionadas

Denuncia de evasión millonaria contra Movistar Arena fue archivada por la Justicia

ARCA denunció por evasión millonaria a la empresa que gestiona Movistar Arena, vinculada al grupo La Nación. El juez Marcelo Aguinsky archivó el caso rápidamente.

Intel se suma al proyecto Terafab de Elon Musk para fabricar chips

Intel se une al proyecto Terafab de Elon Musk para fabricar chips destinados a Tesla, robots Optimus y centros de datos. La iniciativa busca producir 1 teravatio anual de capacidad de procesamiento.

El auge de los enjambres de inteligencia artificial y su impacto en la opinión pública global

El informe Digital Integrity Watch revela cómo los enjambres de inteligencia artificial simulan interacciones humanas para influir en debates públicos y erosionar la confianza institucional.

Jeep ajusta precios en Argentina con descuentos de hasta US$ 36.900

Jeep Argentina anunció rebajas de hasta US$ 36.900 en el Wrangler y bonificaciones para Renegade y Compass. Conocé los nuevos precios y condiciones para abril.