Los avances recientes en inteligencia artificial han provocado afirmaciones controvertidas sobre la naturaleza de la cognición humana. En un artículo reciente, Kiko Llaneras sugiere que, dado que la inteligencia artificial (IA) puede dominar el lenguaje y la creatividad mediante el reconocimiento masivo de patrones, debemos afrontar la “pregunta incómoda” de si los seres humanos operan de la misma manera. Llaneras propone la “Lección 6”: los seres humanos también somos simplemente patrones. Las capacidades que atribuimos al talento o la experiencia son meros atajos similares al aprendizaje automático.
Argumenta que la IA aprende a través de un proceso de “evolución cutre”. Emerge de una ingesta masiva de datos en lugar de una maquinaria innata. Sin embargo, cuando se examina a través de la lente de la perspectiva biolingüística, esta reducción de la mente humana a una sorteo de patrones es fundamentalmente errónea. Al examinar el argumento de la pobreza de estímulos, la estructura interna de los conceptos y el aspecto creativo del uso del lenguaje, podemos ver que la cognición humana es distinta de las aproximaciones estadísticas de la IA.
La objeción más inmediata a la tesis de los “seres humanos como patrones” deriva del argumento de la pobreza del estímulos. Llaneras señala que los modelos de IA comienzan como una tabula rasa y requieren millones de ejemplos para aprender, un proceso que compara con la evolución. Sin embargo, la adquisición del lenguaje humano se caracteriza por la rápida emergencia de un conocimiento rico y complejo basado en datos extremadamente limitados. Los niños y las niñas saben mucho más de lo que su experiencia les ha proporcionado. No requieren de los conjuntos de datos masivos que utiliza la IA, porque los principios básicos del lenguaje son una propiedad de su dotación biológica. La adquisición del lenguaje no es un proceso de “aprendizaje” por inferencia estadística, sino más bien el crecimiento de un “órgano”, en un proceso inducido por el entorno, muy parecido al crecimiento del sistema visual.
Un ejemplo de esta restricción biológica se encuentra en el principio de dependencia estructural. Cuando los niños y las niñas aprenden a formar preguntas como “¿Instintivamente, las águilas que vuelan nadan?”, saben asociar el adverbio “instintivamente” con el verbo principal “nadan" en lugar de hacerlo relacionar con el verbo linealmente más cercano "vuelan”. Es decir, no están preguntándose por el instinto de las águilas para volar, sino por el instinto de las águilas para nadar. Computacionalmente, una regla lineal sería más simple (“vuelan” está más cerca de “instintivamente” que “nadan”), pero los niños y niñas que adquieren español minimizan inconscientemente la distancia estructural (el antiguo concepto de las clases de lengua de la ESO de oración principal), no la distancia lineal. Para la niña que adquiere español, el predicado de la oración principal está más cerca de “instintivamente” que el predicado de la oración subordinada. Este conocimiento no se deriva de patrones estadísticos en un corpus, ya que los niños rara vez encuentran datos que refuten la hipótesis lineal. Más bien, es una consecuencia de la arquitectura interna de la facultad del lenguaje. Si bien la IA podría simular un proceso similar, lo haría tras engullir millones y millones de datos sobre el español.
Además, la hipótesis de la “coincidencia de patrones” no puede explicar la complejidad interna de los elementos léxicos que forman parte de las lenguas, las palabras. Llaneras argumenta que la IA captura el “conocimiento” al predecir la siguiente palabra. Sin embargo, las palabras humanas no son meros indicadores estadísticos. Son perspectivas complejas con ricas estructuras internas que descubrimos sin experiencia relevante. Por ejemplo, la palabra “libro” puede referirse simultáneamente a un objeto concreto (que puede ser pesado) y a una entidad intelectual abstracta (que puede ser memorizada). A los hablantes de español nos basta un encuentro con la palabra “libro” para capturar esta complejidad. Del mismo modo, palabras como “Londres” pueden referirse a una ubicación física, a una población o a una entidad política que puede ser destruida y reconstruida en otro lugar, sin dejar de ser la misma ciudad. Estas propiedades semánticas no son correlaciones estadísticas que aparezcan en el mundo externo. Son perspectivas, identidades imaginarias establecidas por los poderes cognitivos innatos de la mente humana.
El paradigma actual de la IA, como señala Llaneras, se centra en el poder “emergente” de la predicción de texto para simular la comunicación. Sin embargo, desde una perspectiva biolingüística, la afirmación tradicional de Aristóteles de que el lenguaje es “sonido con significado” debe invertirse: el lenguaje se entiende propiamente como “significado con sonido”. El aspecto fundamental del lenguaje es que se trata de un sistema concebido de manera óptima para pensar, no para interactuar. La externalización (mediante sonidos o caracteres) es un proceso secundario, y la comunicación es una función aún más auxiliar. La IA por el contrario se centra en los patrones externos de comunicación: su máxima ambición es dar una respuesta al “prompt” correspondiente.
La característica que separa más claramente la cognición humana de la coincidencia de patrones estadísticos es lo que Descartes denominó el “aspecto creativo del uso del lenguaje”. El uso normal del lenguaje humano es innovador, ilimitado y libre del control de los estímulos, sin dejar de ser coherente y apropiado para las situaciones. No necesita “prompts”. Mientras que una máquina o un animal podrían verse compelidos por estados internos o externos a reaccionar, los seres humanos solo están “incitados” o “inclinados”, de modo que conservan la libertad de actuar de otra manera. Llaneras afirma que la IA ha automatizado la cognición, pero Chomsky argumenta que, si bien podemos idear mecanismos que expliquen la competencia (la gramática subyacente), el uso creativo de esa gramática sigue siendo un misterio que escapa a la explicación científica. Difícilmente podemos automatizar algo cuyo funcionamiento desconocemos.
La distinción entre “problemas” y “misterios” es fundamental para comprender los límites de la mente humana. La hipótesis del “patrón” implica que con suficientes datos, todos los procesos cognitivos son problemas solucionables. Sin embargo, si los seres humanos son organismos biológicos y no ángeles, nuestras capacidades cognitivas pueden tener límites determinados por nuestra naturaleza. Así como una rata carece de la estructura cognitiva para lidiar con números primos, por muchos números primos que le arrojemos, los seres humanos podríamos estar enfrentándonos a “misterios” que yacen más allá de nuestro alcance cognitivo. La “facultad formadora de ciencia” (FFC) permite a los humanos construir teorías explicativas inteligibles dentro de ciertos dominios, pero no hay garantía de que todos los aspectos del mundo —particularmente la naturaleza del libre albedrío y la conciencia— caigan dentro de la intersección de nuestra FFC y la realidad.
El descubrimiento científico en sí mismo refuta la noción de que el pensamiento humano es una mera coincidencia de patrones. Peirce describió el proceso de descubrimiento científico como “abducción”. Un proceso por el cual la mente humana pone límites a las hipótesis admisibles para construir teorías. No es un proceso estadístico de correlación, para el que, en principio, no hay límites, ya que todo es susceptible de correlación, sino un instinto específico para la construcción de teorías inteligibles. Como se ve en la historia de la química y la física, la ciencia a menudo procede mediante la postulación de entidades teóricas (como átomos o fuerzas gravitacionales) que desafían los patrones del sentido común, es decir, lo que está en los datos o en los datos masivos. La construcción del conocimiento científico requiere de una facultad mental específica que va más allá de los datos, distinta de la correlación de fuerza bruta de la IA.
En última instancia, la visión de que los seres humanos son meramente patrones estadísticos pasa por alto la dotación biológica específica que define a nuestra especie. No somos “pizarras en blanco”, moldeadas únicamente por la acumulación de datos, como lo son los modelos de IA. Poseemos una naturaleza distinta que permite el crecimiento de lenguas ricas y estructuradas con sistemas conceptuales complejos. Si bien la IA puede simular ciertos resultados del comportamiento humano, lo hace sin las restricciones internas, la libertad creativa o la arquitectura cognitiva específica que caracterizan a la mente humana.
Referencias
- Chomsky, N. (1982). A Note on the Creative Aspect of Language Use. The Philosophical Review.
- Chomsky, N. (2000). New horizons in the study of language and mind.
- Chomsky, N. (2009). The Mysteries of Nature: How Deeply Hidden? The Journal of Philosophy.
- Chomsky, N. (2011). Language and Other Cognitive Systems. Language Learning and Development.
- Chomsky, N. (2018). Science, Mind, and Limits of Understanding.
- Llaneras, K. (2026). ¿Cómo piensa una inteligencia artificial? La gran sorpresa es que ‘intuye’. El País.25-01-2026