¿Podrán los chatbots llegar a pensar como los humanos?

Científicos entrenan a un sistema de Inteligencia Artifical para imitar la mente humana, con todo y sus defectos.

  • 01 de septiembre de 2025 a las 15:19 -
The New York Times

Por: Carl Zimmer/The New York Times

Empresas como OpenAI y Meta están compitiendo por crear algo que llaman inteligencia artificial general. Pero la IAG no tiene una definición establecida. Es más bien una aspiración a crear algo indistinguible de la mente humana.

Hoy la inteligencia artificial ya hace muchas cosas que antes estaban limitadas a la mente humana —como jugar campeonatos de ajedrez y descifrar la estructura de las proteínas. ChatGPT y otros chatbots están elaborando un lenguaje tan humano que la gente se está enamorando de ellos. Pero por ahora, muchos sistemas de inteligencia artificial son buenos para una sola cosa.

Un gran maestro puede conducir un auto a un torneo de ajedrez, pero un sistema de IA que juega ajedrez es impotente detrás del volante. Un chatbot puede cometer errores muy simples y extraños, como dejar que los peones se muevan lateralmente en el ajedrez, una jugada ilegal.

Pese a estas deficiencias, un equipo de científicos cree que los sistemas de inteligencia artificial pueden ayudarlos a comprender cómo funciona la mente humana. Han creado un sistema similar a ChatGPT que puede interpretar el papel de un humano en un experimento psicológico. Los detalles del sistema, conocido como Centaur, se publicaron en la revista Nature en julio.

“Queremos comprender la mente humana como un todo y ver cómo se conectan todas estas funciones”, dijo Marcel Binz, científico cognitivo en Helmholtz Munich, un centro alemán, y un autor del estudio.

Sintió curiosidad por ChatGPT y sistemas de IA similares, conocidos como modelos de lenguaje grande. “Tenían esta característica muy tipo humana de que les podrías preguntar sobre cualquier cosa y harían algo sensato”, explicó Binz. “Fue el primer sistema computacional que poseía este pedacito de generalidad tipo humana”.

LLaMA

En el 2023, Meta lanzó el LLaMA (Large Language Model Meta AI) de código abierto. Los científicos podían modificarlo para su propia investigación. Binz y sus colegas se preguntaron si podrían entrenarlo para que se comportara como una mente humana —no sólo en una forma, sino en muchas.

Los investigadores reunieron 160 experimentos psicológicos para entrenar a LLaMA, incluyendo más de 10 millones de respuestas de más de 60 mil voluntarios. Luego, le pidieron que interpretara el papel de un voluntario en cada experimento. “Básicamente, le enseñamos a imitar las elecciones hechas por los participantes humanos”, dijo Binz.

Él y sus colegas llamaron Centaur al modelo modificado. Una vez entrenado, pusieron a prueba lo bien que imitaba la psicología humana. En una serie de pruebas, mostraron a Centaur algunas respuestas de voluntarios que no había visto antes. Centaur tuvo un buen desempeño prediciendo cuáles serían las respuestas restantes de un voluntario.

Los investigadores también permitieron que Centaur jugara algunos juegos por su cuenta, incluyendo uno en el que usaba una nave espacial para encontrar un tesoro. Centaur desarrolló las mismas estrategias de búsqueda que los voluntarios humanos. Luego, cambiaron la historia del juego, sustituyendo la nave espacial por una alfombra voladora. Los voluntarios transfirieron su estrategia espacial al nuevo juego. Centaur hizo lo mismo.

Cae llegada de estudiantes internacionales a EEUU por políticas de Trump

Los investigadores luego pidieron a Centaur que respondiera preguntas de razonamiento lógico, un reto no incluido en el entrenamiento original. Centaur volvió a producir respuestas tipo humanas. Tendió a responder correctamente las preguntas que las personas respondieron correctamente y falló en las que las personas también encontraron difíciles.

Pero Gary Lupyan, científico cognitivo en la Universidad de Wisconsin, en Madison, dijo que lo que buscan los científicos cognitivos son las teorías que pueden explicar la mente. “El objetivo no es la predicción”, afirmó. “El objetivo es entender”.

Binz coincidió en que el sistema aún no apuntaba a una nueva teoría de la mente. Pero espera que pueda servir como punto de referencia para nuevas teorías.

©The New York Times Company 2025

Te gustó este artículo, compártelo
Staff NYTimes
Staff NYTimes
Contenido exclusivo

The New York Times International Weekly es una publicación periodística exclusiva y de clase mundial de The New York Times. Sus reportajes abordan una amplia temática: tendencias, política, análisis, ciencia, tecnología, arte, diseño y estilos de vida.