ChatGPT versus cerebro: entre capacidades artificiales asombrosas al potencial humano inigualable

05 de Marzo 2026 | Publicado por: Natalia Quiero
Fotografía: Cedida

Las semejanzas y diferencias entre el lenguaje artificial y humano, que generan potencialidades y limitaciones de la IA, abordó el neurocientífico español Manuel de Vega en la UdeC.

Hace unos años una herramienta tecnológica llegó para hacer realidad lo que un día fue una ingeniosa fantasía.

Crear textos con lenguaje natural en diversos formatos e imágenes increíbles, y establecer conversaciones fluidas son parte de las funciones de ChatGPT, accesible desde una plataforma gratis o Premium y pagada, que da rápidos resultados tras recibir una pregunta o instrucción, usándose cada vez más y desde edades tempranas en ámbitos académicos y laborales, además de redes sociales donde masivamente se publican contenidos escritos o audiovisuales que hoy cuesta distinguir si son reales o artificiales.

Es una aplicación de inteligencia artificial (IA) generativa basada en los “grandes modelos de lenguaje” (LLM), que también nutren a otras creadas por distintas compañías, y sus capacidades le hacen sentir como nuestro amigo comprensivo y más inteligente con el que podemos hablar. Aunque ello puede llevar a confiar ilusamente y desconocer nuestro aún inigualable potencial, encaminando un mal uso de esta herramienta que nuble su poder y beneficios.


“Tenemos un sistema natural que es el cerebro humano, fruto de la evolución de millones de años que ha dado lugar a capacidades lingüísticas increíbles. Y tenemos un sistema artificial de hace pocos años que emula esas capacidades de manera asombrosa. Nos podemos comunicar con este objeto y hay una ilusión que hay un elemento consciente detrás que nos entiende, pero en realidad es una máquina”, manifestó el neurocientífico Manuel de Vega, profesor emérito de la Universidad de la Laguna de España.

Este fenómeno, desde las semejanzas a las diferencias entre la ejecución del lenguaje humano y el de los LLM para orientar su empleo adecuado, abordó el experto en la charla “Cerebro y ChatGPT. Conversaciones ilusorias” que ofreció durante una reciente visita a la Facultad de Educación de la Universidad de Concepción (UdeC).


Semejanzas y diferencias

Hay similitudes impresionantes que permiten conversar fluidamente a ambos sistemas; también diferencias profundas por capacidades humanas aún inigualables por más evolucionada que esté la tecnología.


El neurocientífico precisó que los humanos y los LLM utilizan la predicción de la siguiente palabra. “Hay estudios sistemáticos que demuestran que continuamente estamos haciendo una predicción de lo que viene luego. El GPT hace lo mismo, toda la programación se basa en que ha aprendido a hacer una computación estadística de la siguiente palabra”.

Otra similitud es la memoria semántica o de ideas. “GPT no sólo tiene almacenadas palabras, sino que realmente representan las ideas y relaciones entre éstas. Los humanos también”, afirmó.


Además, hay aprendizaje por exposición repetida de estímulos, es decir, integración de ideas y patrones a partir de un cúmulo de experiencias.

Desde allí el experto afirmó que “nos diferenciamos en más cosas y es quizá más importante”. Las diferencias se traducen en limitaciones de los sistemas artificiales, por ende de su potencial.


Primero aclaró que las experiencias de los LLM son sólo palabras y los humanos nos exponemos a mucho más que eso, como percepción de objetos, emociones o sensaciones corporales.

También explicó que los humanos tenemos memoria episódica, relacionada a sucesos y experiencias particulares, como la autobiográfica que se relaciona con lo que se ha hecho o escuchado. Todo un mundo de conocimiento ausente en la IA.


Nuestra experiencia de lenguaje está cargada de emociones. En la IA no hay emociones, si bien puede simularlas, la máquina no siente absolutamente nada”, añadió.

En la misma línea está el anclaje corporal del lenguaje: en el humano está incorporado a un cuerpo, con movimientos, sentidos como la audición y visión, y sensaciones agradables o desagradables. Y la IA no tiene un cuerpo.


Y hay una sustancial diferencia en la eficiencia energética: “toda la LLM se basa en algoritmos muy potentes que requieren un tratamiento masivo de datos y un consumo energético tremendo, comparado con el cerebro humano que consume lo mismo que una bombilla de 20 W”.

“La IA va a ser buena, pero necesitamos un esfuerzo social de adaptarnos todos”


La IA ha avanzado vertiginosamente los últimos años, y el neurocientífico Manuel de Vega reconoció que hay esfuerzos e intereses para seguir su desarrollo, aumentar sus potencialidades y acortar limitaciones, que se acerque más a emular capacidades humanas.

“Cuando se consiga que la IA esté conectada con el mundo empezará a parecerse a nosotros. Si se consigue además que tenga memoria episódica empezará a parecerse a nosotros. Si tiene capacidades de interacción sobre el aquí y ahora se parecerá más a nosotros. Pero, de momento nada esto está ahí”, enfatizó.


Aunque consideró necesario cuestionarse qué podría pasar cuando estos avances existan, sobre todo para tener una sociedad mejor preparada y adaptada para usar bien las disruptivas herramientas que se podrían generar y estar al alcance de la mano de todos.

Más de un cambio y dilema plantea el avance e integración de la IA al quehacer y cotidianidad en todo ámbito, en aspectos como beneficios versus impactos y uso responsable, provechoso, ético y equitativo.


El experto planteó que “todo va tan deprisa que nos está costando adaptarnos y cuando te adaptas algo ha cambiado ya, y apenas hemos tenido tiempo de analizar el impacto que está teniendo la IA en los individuos y en la sociedad, pero hay señales de alarma y de optimismo”.

En el lado del riesgo el uso indiscriminado podría afectar intelectualmente a quienes se valgan sólo de sistemas como ChatGPT para que dé las respuestas y realice trabajos.


Usar LLM nos podría hacer más tontos porque nos hace más perezosos, porque ya no hay que pensar y vamos a dar toda la responsabilidad al ChatGPT para que resuelva los problemas. Un estudiante mediocre puede decirle que le haga el trabajo que le pide y presentarlo al profesor, lo que es un peligro si no pasa por la inteligencia de un estudiante”, advirtió.

Otra alerta está en el uso como amigo o terapeuta, buscando apoyos o diagnósticos de salud mental o física que podrían ser contraproducentes.


Sobre ello, aclaró que “ChatGPT está diseñado para ser complaciente, siempre nos trata bien, y es un peligro porque podría reforzar estados mentales negativos o trastornos mentales, como fantasías de suicidio de adolescentes o un delirio paranoico. Además, está alimentado con datos masivos que permiten que normalmente dé respuestas razonables, pero no puede hacer un diagnóstico médico porque no tiene datos personales”.

Aunque su convicción es que los beneficios pueden ser aún mayores de la mano de un uso humanamente inteligente de la IA. El problema no está en la tecnología como si fuera buena o mala, sino que las personas dan un buen o mal uso.


Los LLM se pueden usar como un compañero de diálogo inteligente. Haciendo preguntas apropiadas y valorando las respuestas, la IA puede ser una máquina de aprender tremenda, nos puede permitir explorar campos como si estuviéramos leyendo varios libros”, sostuvo.

Educación y adaptación


Para ello valoró como fundamental educar e instruir sobre las herramientas con sus potencialidades y limitaciones, y fortalecer competencias como el pensamiento crítico, donde uno de los espacios clave es la escuela, apuntando a profesionales de la educación y escolares para que saquen el máximo provecho de la IA que está a un clic.

En la misma línea llamó a profundizar las investigaciones sobre los impactos positivos y negativos de la IA para orientar desde la evidencia su integración y empleo apropiado.


Con todo lo que falta por investigar y educar a la sociedad, y a la IA por avanzar a velocidades y puntos hoy insospechados, el neurocientífico declaró: “la IA va a ser buena, pero necesitamos un esfuerzo social de adaptarnos todos”.

Importancia de comprender la IA


La visita y charla de Manuel de Vega se dio al alero del proyecto Fondecyt Regular 1241145 “Entrenando la comprensión lectora online mediante una plataforma virtual. Evidencias empíricas desde la neurociencia” que lidera la doctora Mabel Urrutia, directora del Laboratorio de Neurociencia Cognitiva de la Facultad de Educación UdeC, e integrante del claustro del Doctorado en IA del Cruch Biobío-Ñuble y del Comité de Ética, Bioética y Bioseguridad de la UdeC.

Para la académica la comprensión de la IA y sistemas como ChatGPT tiene relevancia tanto educativa como ética y social, cada vez mayor por su masivo empleo por ejemplo en escolares, pero no siempre juiciosa y adecuadamente.


Decir que no usen la IA es ponernos una venda en un ojo, porque los estudiantes lo están haciendo igual. No hay negatividad de usar la IA, ni tampoco una fantasía acerca de las potencialidades que puede tener”, aseveró.

En este sentido planteó que es crucial que educadores y formadores reciban especialización para entender y usar bien la IA para traspasar ese conocimiento y herramientas a estudiantes, reconociéndola como una ayuda que facilite tareas para escolares o docentes, pero siempre con el criterio humano delante para que no tenga perjuicios que terminen, por ejemplo, limitando los aprendizajes.


“Los recursos los tenemos que usar sin que la IA nos reemplace, tiene que ser apoyo”, declaró.