spot_img

¿Tiene la IA ya inteligencia a nivel humano? La evidencia es clara

La visión de una inteligencia artificial a nivel humano, planteada por Alan Turing en la década de 1950, ya es una realidad. Una mirada libre de temores y exageraciones nos ayudará a prepararnos para lo que viene.

Por Eddy Keming Chen, Mijaíl Belkin , León Bergen y David Danks

Traducción Alejandro Garvie

En 1950, en un artículo titulado “Maquinaria informática e inteligencia”, Alan Turing propuso su “juego de imitación”. Ahora conocido como el test de Turing, abordaba una pregunta que parecía puramente hipotética: ¿podrían las máquinas mostrar la flexibilidad y la competencia cognitiva general que caracterizan el pensamiento humano, de modo que pudieran hacerse pasar por humanos ante humanos inconscientes?

Tres cuartos de siglo después, la respuesta parece afirmativa. En marzo de 2025, el modelo de lenguaje grande (LLM) GPT-4.5, desarrollado por OpenAI en San Francisco, California, fue evaluado por humanos en una prueba de Turing como humano el 73 % de las veces, con una frecuencia mayor que la de los humanos reales. Es más, los lectores incluso prefirieron los textos literarios generados por LLM a los escritos por expertos.

Esto no es todo. Los LLM han logrado un desempeño de medalla de oro en la Olimpiada Internacional de Matemáticas, han colaborado con matemáticos destacados para demostrar teoremas, han generado hipótesis científicas que han sido validadas en experimentos, han resuelto problemas de exámenes de doctorado, han ayudado a programadores profesionales a escribir código, han compuesto poesía y mucho más, incluyendo chatear 24/7 con cientos de millones de personas en todo el mundo. En otras palabras, los LLM han mostrado muchos signos del tipo de competencia cognitiva amplia y flexible que era el enfoque de Turing: lo que ahora llamamos “inteligencia general”, aunque Turing no usó el término.

¿Cuál es el futuro de la inteligencia? La respuesta podría estar en la historia de su evolución.

Sin embargo, muchos expertos se resisten a afirmar que los modelos actuales de IA muestran inteligencia artificial general (IAG), y algunos dudan que alguna vez lo hagan. Una encuesta realizada en marzo de 2025 por la Asociación para el Avance de la Inteligencia Artificial en Washington D. C. reveló que el 76 % de los principales investigadores consideraba que sería “poco probable” o “muy improbable” que la ampliación de los enfoques actuales de IA generara IAG.

¿Qué explica esta desconexión? Sugerimos que el problema es en parte conceptual, ya que las definiciones de IAG son ambiguas e inconsistentes; en parte emocional, porque la IAG genera temor al desplazamiento y la disrupción; y en parte práctico, ya que el término está entrelazado con intereses comerciales que pueden distorsionar las evaluaciones. Precisamente porque la IAG domina el discurso público, vale la pena abordar el concepto de una manera más objetiva: como una cuestión de inteligencia, en lugar de una preocupación acuciante por la agitación social o un hito siempre pospuesto en un contrato comercial.

Al escribir este comentario, abordamos esta cuestión desde diferentes perspectivas —filosofía, aprendizaje automático, lingüística y ciencia cognitiva— y llegamos a un consenso tras un amplio debate. A continuación, explicamos por qué creemos que, una vez aclaradas ciertas confusiones y procurando realizar comparaciones justas y evitar sesgos antropocéntricos, la conclusión es clara: según estándares razonables, incluyendo los del propio Turing, tenemos sistemas artificiales que son generalmente inteligentes. El problema de larga data de crear IAG se ha resuelto. Reconocer este hecho es importante para las políticas, para el riesgo y para comprender la naturaleza de la mente e incluso el mundo mismo.

Preguntas de definición

Suponemos, como creemos que habría hecho Turing, que los humanos poseen inteligencia general. Algunos piensan que la inteligencia general no existe en absoluto, ni siquiera en los humanos. Si bien esta perspectiva es coherente y filosóficamente interesante, la descartamos aquí por estar demasiado desconectada de la mayor parte del discurso sobre IA. Pero, partiendo de esta premisa, ¿cómo deberíamos caracterizar la inteligencia general?

Una definición informal común de inteligencia general, y el punto de partida de nuestras discusiones, es un sistema que puede hacer casi todas las tareas cognitivas que un humano puede hacer. Qué tareas deberían estar en esa lista genera mucho debate, pero la frase “un humano” también oculta una ambigüedad crucial. ¿Significa un experto humano de primer nivel para cada tarea? Entonces ningún individuo califica: Marie Curie ganó premios Nobel en química y física, pero no era una experta en teoría de números. ¿Significa un humano compuesto con competencia en todos los ámbitos? Esto también parece un listón alto: Albert Einstein revolucionó la física, pero no podía hablar mandarín.

¿Qué tan cerca está la IA de la inteligencia a nivel humano?

Una definición que excluye esencialmente a todos los humanos no define la inteligencia general; se refiere a algo más, quizás a la pericia ideal o a la inteligencia colectiva. Más bien, la inteligencia general se refiere a tener suficiente amplitud y profundidad de capacidades cognitivas, con el “suficiente” anclaje en casos paradigmáticos. La amplitud se refiere a habilidades en múltiples dominios —matemáticas, lenguaje, ciencias, razonamiento práctico, tareas creativas—, en contraste con las inteligencias “estrechas”, como la de una calculadora o un programa de ajedrez. La profundidad se refiere a un desempeño sólido en esos dominios, no a una mera implicación superficial.

La inteligencia general humana admite grados y variaciones. Niños, adultos promedio y un genio reconocido como Einstein poseen una inteligencia general de nivel y perfil variables. Los seres humanos sobresalen o fallan en diferentes áreas. La misma flexibilidad debería aplicarse a los sistemas artificiales: deberíamos preguntarnos si poseen capacidades cognitivas básicas a niveles comparables a la inteligencia general humana.

En lugar de estipular una definición, nos basamos en casos reales e hipotéticos de inteligencia general —desde Einstein hasta extraterrestres y oráculos— para triangular los contornos del concepto y refinarlo de forma más sistemática. Nuestra conclusión: en la medida en que los humanos individuales poseen inteligencia general, los LLM actuales también la poseen.

Lo que no es la inteligencia general

Podemos comenzar identificando cuatro características que no son necesarias para la inteligencia general.

Perfección. No esperamos que un físico iguale las ideas de Einstein, ni que un biólogo replique los descubrimientos de Charles Darwin. Pocos, si es que hay alguno, humanos poseen una profundidad perfecta, incluso en áreas especializadas. La inteligencia general humana no requiere perfección; la IAG tampoco debería.

Universalidad. Ningún ser humano puede realizar todas las tareas cognitivas, y otras especies poseen capacidades que superan las nuestras: un pulpo puede controlar sus ocho brazos de forma independiente; muchos insectos pueden ver partes del espectro electromagnético invisibles para los humanos. La inteligencia general no requiere un dominio universal de estas habilidades; una IAG no necesita una amplitud de campo perfecta.

Similitud humana. La inteligencia es una propiedad funcional que puede materializarse en diferentes sustratos, un punto que Turing adoptó en 1950 al dejar de lado la biología humana. Los sistemas que demuestran inteligencia general no necesitan replicar la arquitectura cognitiva humana ni comprender las referencias culturales humanas. No exigiríamos estas cosas a los extraterrestres inteligentes; lo mismo aplica a las máquinas.

Superinteligencia. Generalmente se utiliza para referirse a cualquier sistema que supera con creces el rendimiento cognitivo de los humanos en casi todas las áreas. La superinteligencia y la IA general se confunden a menudo, sobre todo en contextos empresariales, donde la “superinteligencia” suele indicar disrupción económica. Ningún ser humano cumple este estándar; tampoco debería ser un requisito para la IA general.

Una cascada de evidencia

¿Qué es, entonces, la inteligencia general? No existe una prueba clara para determinar su presencia; cualquier umbral exacto es inevitablemente arbitrario. Esto podría frustrar a quienes buscan criterios precisos, pero la vaguedad es una característica, no un defecto. Conceptos como “vida” y “salud” se resisten a una definición precisa, pero siguen siendo útiles; reconocemos casos paradigmáticos sin necesidad de límites precisos. Los humanos son ejemplos paradigmáticos de inteligencia general; una calculadora de bolsillo carece de ella, a pesar de su capacidad sobrehumana para el cálculo.

Cuando evaluamos la inteligencia o las capacidades generales de otros humanos, no intentamos escudriñar su interior para verificar su comprensión; la inferimos del comportamiento, la conversación y la resolución de problemas. Ninguna prueba es definitiva, pero la evidencia se acumula. Lo mismo aplica a los sistemas artificiales.

Así como evaluamos la inteligencia general humana a través de pruebas progresivamente exigentes, desde la alfabetización básica hasta los exámenes de doctorado, podemos considerar una cascada de evidencia cada vez más exigente que justifica una confianza progresivamente mayor en la presencia de IAG.

Nivel de la prueba de Turing. Indicadores comparables a la educación escolar básica: aprobar exámenes escolares estándar, mantener conversaciones adecuadas y realizar razonamientos sencillos. Hace una década, cumplir con estos requisitos podría haber sido ampliamente aceptado como evidencia suficientemente sólida de AGI.

Nivel experto. Aquí, las exigencias se intensifican: desempeño de medalla de oro en competiciones internacionales, resolución de problemas en exámenes de doctorado en múltiples campos, escritura y depuración de código complejo, fluidez en docenas de idiomas, asistencia útil en investigación de vanguardia, así como resolución competente de problemas creativos y prácticos, desde la redacción de ensayos hasta la planificación de viajes. Estos logros superan muchas representaciones de la IAG en la ciencia ficción. La supercomputadora consciente HAL 9000, de la película de 1968 del director Stanley Kubrick, 2001: Una odisea del espacio, exhibió menos alcance que los LLM actuales. Y los LLM actuales incluso superan lo que exigimos a los humanos: atribuimos a las personas una inteligencia general con base en evidencia mucho más débil.

Nivel sobrehumano. Descubrimientos científicos revolucionarios y superioridad constante sobre los principales expertos humanos en diversos ámbitos. Dicha evidencia seguramente no permitiría un debate razonable sobre la presencia de inteligencia general en una máquina, pero no es una prueba necesaria de su presencia, ya que ningún ser humano la demuestra.

La visión de Turing hecha realidad

Los LLM actuales ya cubren los dos primeros niveles. A medida que abordan problemas cada vez más complejos, las explicaciones alternativas de sus capacidades —por ejemplo, que son gigantescas “tablas de consulta” que recuperan respuestas precalculadas o “loros estocásticos” que regurgitan regularidades superficiales sin captar el significado ni la estructura— se ven cada vez más refutadas.

Sin embargo, a menudo tales afirmaciones simplemente reaparecen con predicciones diferentes. Las hipótesis que retroceden ante cada nuevo éxito, prediciendo siempre el fracaso justo después de los logros actuales, no son teorías científicas convincentes, sino un compromiso dogmático con el escepticismo perpetuo.

Los modelos de lenguaje de IA acabaron con la prueba de Turing: ¿necesitamos siquiera un reemplazo?

Creemos que la evidencia actual es clara. Por inferencia a la mejor explicación – el mismo razonamiento que utilizamos para atribuir inteligencia general a otras personas -, observamos una IAG de alto grado. Máquinas como las imaginadas por Turing ya han llegado. Argumentos similares se han presentado antes del año 10, los cuales han generado controversia y resistencia. Nuestro argumento se beneficia de avances sustanciales y tiempo adicional. A principios de 2026, la defensa de la IAG es considerablemente más clara.

A continuación, examinamos diez objeciones comunes a la idea de que los LLM actuales demuestran inteligencia general. Varias de ellas reflejan objeciones que el propio Turing planteó en 1950. Cada una, sugerimos, confunde la inteligencia general con aspectos no esenciales de la inteligencia o aplica estándares que los humanos no cumplen.

Son solo loros. La objeción del loro estocástico dice que los LLM simplemente interpolan datos de entrenamiento. Solo pueden recombinar patrones que han encontrado, por lo que deben fallar en problemas genuinamente nuevos o “generalización fuera de distribución”. Esto hace eco de la “Objeción de Lady Lovelace”, inspirada en la observación de Ada Lovelace de 1843 y formulada por Turing como la afirmación de que las máquinas “nunca pueden hacer nada realmente nuevo”. Los primeros LLM ciertamente cometieron errores en problemas que requerían razonamiento y generalización más allá de los patrones superficiales en los datos de entrenamiento. Pero los LLM actuales pueden resolver problemas matemáticos nuevos e inéditos, realizar inferencia estadística en contexto casi óptima en datos científicos y exhibir transferencia entre dominios, en que el entrenamiento en código mejora el razonamiento general en dominios que no son de codificación. Si los críticos exigen descubrimientos revolucionarios como la relatividad de Einstein, están poniendo el listón demasiado alto, porque muy pocos humanos hacen tales descubrimientos. Además, no hay garantía de que la inteligencia humana no sea en sí misma una versión sofisticada de un loro estocástico. Toda inteligencia, humana o artificial, debe extraer la estructura de los datos correlacionales; la pregunta es cuán profunda es la extracción.

Carecen de modelos del mundo. Los LLM supuestamente carecen de representaciones de su entorno físico que son necesarias para una comprensión genuina. Pero tener un modelo del mundo solo requiere la capacidad de predecir qué sucedería si las circunstancias difirieran, para responder a preguntas contrafácticas. Pregúntele a un LLM de vanguardia qué diferencia hay entre dejar caer un vaso o una almohada en un piso de baldosas, y predecirá correctamente la rotura en un caso y no en el otro. La capacidad de los LLM para resolver problemas olímpicos de matemáticas y física y ayudar con el diseño de ingeniería sugiere que poseen modelos funcionales de principios físicos. Según estos estándares, los LLM ya tienen modelos del mundo. Además, las redes neuronales desarrolladas para dominios especializados como la conducción autónoma ya están aprendiendo modelos predictivos de escenas físicas que respaldan el razonamiento contrafáctico y la conciencia física sofisticada.

Solo entienden palabras. Esta objeción se centra en el hecho de que los modelos de aprendizaje a largo plazo (LLM) se entrenan únicamente con texto, por lo que deben limitarse fundamentalmente a tareas textuales. Los modelos de frontera ahora se entrenan con imágenes y otros datos multimodales, lo que hace que esta objeción resulte obsoleta. Además, el lenguaje es la herramienta más poderosa de la humanidad para comprimir y capturar el conocimiento sobre la realidad. Los LLM pueden extraer este conocimiento comprimido y aplicarlo a tareas claramente no lingüísticas: ayudar a los investigadores a diseñar experimentos —por ejemplo, sugerir qué probar a continuación en biología y ciencia de los materiales 4— va más allá del mero rendimiento lingüístico. Aún no hemos encontrado las graves limitaciones del rendimiento de los LLM que predice esta objeción.

No tienen cuerpo. Sin corporización, argumentan los críticos, no puede haber inteligencia general. Esto refleja un sesgo antropocéntrico que parece esgrimirse solo contra la IA. Se le atribuiría inteligencia a un extraterrestre incorpóreo que se comunica por radio, o a un cerebro mantenido en una cuba. Una entidad que responde con precisión a cualquier pregunta, pero que nunca se mueve ni actúa físicamente, sería considerada profundamente inteligente. El físico Stephen Hawking interactuó con el mundo casi exclusivamente a través de texto y voz sintetizada; sin embargo, sus limitaciones físicas no disminuyeron en absoluto su inteligencia. Las capacidades motoras son separables de la inteligencia general.

Carecen de agencia. Es cierto que los LLM actuales no establecen objetivos independientes ni inician acciones espontáneamente, como lo hacen los humanos. Incluso los sistemas de IA “agenticos”, como los agentes de codificación fronteriza, suelen actuar solo cuando un usuario activa una tarea, aunque puedan entonces redactar automáticamente funciones y corregir errores. Pero la inteligencia no requiere autonomía. Al igual que el Oráculo de Delfos —entendido como un sistema que produce respuestas precisas solo cuando se le consulta—, los LLM actuales no necesitan establecer objetivos para considerarse inteligentes. Los humanos suelen tener inteligencia general y autonomía, pero no por ello debemos concluir que una requiere la otra. La autonomía es importante para la responsabilidad moral, pero no es constitutiva de la inteligencia.

Carecen de sentido de identidad. Los críticos argumentan que la IAG requiere una memoria autobiográfica persistente, una identidad personal estable y una autoactualización continua, algo de lo que carecen los LLM actuales. Los LLM de vanguardia se implementan cada vez más con contexto a largo plazo y memoria específica del usuario, por lo que la brecha en la memoria y la identidad entre los humanos y los sistemas basados ​​en LLM se está reduciendo. Si bien estas características son clave para el funcionamiento de los humanos en sociedad, no son requisitos para la inteligencia general. No negamos la inteligencia a los humanos con amnesia profunda, que podrían no recordar casi ningún detalle personal, ni a las personas con trastorno de personalidad múltiple, cuyas personalidades podrían no ser conscientes entre sí. Por ejemplo, una persona amnésica inteligente podría razonar con fuerza utilizando información registrada en cuadernos externos, incluso si estos cuadernos nunca se conectan.

Son aprendices ineficientes. Una objeción común es que los niños aprenden conceptos con pocos ejemplos, mientras que los LLM requieren grandes cantidades de datos: su eficiencia muestral es baja. Incluso si fuera cierta, la comparación no es sencilla. Ignora miles de millones de años de preentrenamiento evolutivo que incorporaron ricos sesgos inductivos —sobre objetos, espacio y causalidad— mucho antes de que comenzara el aprendizaje basado en la experiencia. Más importante aún, una diferencia en la eficiencia del aprendizaje no implica necesariamente un nivel de inteligencia diferente. Un maestro de ajedrez que tarda diez años en alcanzar la maestría es tan buen ajedrecista como alguien que alcanza ese nivel en un año.

Cómo detectar la conciencia en personas, animales y quizás incluso en IA

Alucinan. Los LLM a veces presentan con seguridad información falsa como verdadera, lo que genera dudas sobre su fiabilidad. La alucinación es cada vez menos frecuente en los modelos actuales, pero en ningún caso descalifica la inteligencia general. Los humanos son propensos a falsos recuerdos, sesgos cognitivos e ilusiones perceptivas, y a menudo los afirman con seguridad.

Carecen de beneficios económicos. En algunos círculos, sobre todo en la industria, la definición de IAG se ha transformado en algo que debe generar rendimientos económicos sustanciales. Sin embargo, la capacidad económica es una aplicación de la inteligencia general, no un requisito para su presencia. La historia ofrece numerosos ejemplos de individuos brillantes que generaron pocos beneficios económicos; no por ello les negamos la inteligencia general.

Su inteligencia es “alienígena”. Los LLM a veces fallan en tareas que son triviales para nosotros (como contar el número de instancias de la letra “r” en “fresa”) mientras que se desempeñan bien en tareas que los humanos encuentran difíciles, desde preguntas científicas de nivel de doctorado hasta síntesis rápida a través de vastas colecciones de literatura científica. Pero nuestra afirmación no es que los LLM tengan inteligencia humana; es que alcanzan algún tipo de inteligencia general. Además, los LLM de frontera cada vez más escriben código y usan herramientas para compensar sus debilidades, al igual que los humanos aumentan sus habilidades con la tecnología, desde calculadoras de bolsillo hasta teléfonos inteligentes. El perfil resultante de fortalezas y debilidades es una forma bastante alienígena de inteligencia, pero esa es una razón para ampliar nuestra concepción de inteligencia general, no para negar que estos sistemas la poseen.

A lo largo de estas objeciones, los críticos exigen características particulares que ningún principio sólido exige de la inteligencia general. Muchos excluyen las inteligencias que reconocemos fácilmente como tales; algunos excluyen a los humanos considerados excepcionalmente inteligentes, o a todos los humanos en general.

Finalmente, una reacción diferente, que no es una objeción propiamente dicha, es lo que Turing llamó “esconder la cabeza en la arena”: las consecuencias del pensamiento de las máquinas serían terribles, así que esperemos que no puedan hacerlo. Esto es comprensible desde el punto de vista emocional y humano. Pero, como señaló Turing, requiere consuelo, no refutación: uno puede comprender la preocupación sin considerarla un argumento.

Por qué esto es importante

Reconocer los LLM actuales como IAG y como el cumplimiento de la visión de inteligencia artificial establecida por Turing es una llamada de atención. Estos sistemas no están en el horizonte; ya están aquí. Los marcos diseñados para evaluar herramientas limitadas son inadecuados para evaluar sus beneficios y riesgos. Las cuestiones de coexistencia, responsabilidad, obligación legal y gobernanza adquieren nuevas dimensiones cuando los sistemas involucrados no son instrumentos limitados, sino inteligencia general.

La inteligencia, como hemos visto, no requiere una autonomía sólida, un hallazgo que complica los debates sobre la responsabilidad legal y moral de los sistemas de inteligencia artificial, que a menudo asumen que ambas van de la mano. Necesitamos métodos más cuidadosos y con base empírica para evaluar y establecer la responsabilidad de la IA. Además, es improbable que los métodos convencionales de gobernanza funcionen para la IAG, precisamente debido a su generalidad. La tecnología suele gobernarse en función de sus posibles usos, pero la IAG puede utilizarse prácticamente en cualquier lugar.

Otra pregunta clave se refiere a la relación entre la inteligencia humana y las formas de inteligencia general que se han creado artificialmente y que se crearán en el futuro. En muchos sentidos, estos sistemas son sorprendentemente similares a los humanos: escriben como nosotros, hablan como nosotros y comparten algunas de nuestras imperfecciones. Sin embargo, siguen siendo ajenos, reflejando una trayectoria fundamentalmente diferente hacia la inteligencia general, libre de las presiones evolutivas que moldearon los objetivos de supervivencia de la cognición humana, un cuerpo pequeño y blando, la escasez de energía y la comunicación de bajo ancho de banda. Comprender esta extrañeza es importante. ¿En qué se diferencian estos sistemas del nuestro? ¿Son esas diferencias transitorias o fundamentales?

Las respuestas podrían revelar qué aspectos de la inteligencia general son universales y cuáles son características locales de nuestra herencia biológica. Por primera vez en la historia de la humanidad, ya no estamos solos en el ámbito de la inteligencia general. También podríamos comprender mejor los riesgos, ya que una inteligencia general extraterrestre podría fallar de forma sorprendente o tener éxito de maneras que no son fáciles de comprender ni guiar. Ver estos sistemas tal como son nos ayudará a trabajar con ellos hoy y a prepararnos para el futuro.

Hace tan solo cinco años, no teníamos IA; ahora sí. Sin duda, pronto llegarán formas de inteligencia aún más poderosas. Esto es a la vez notable y preocupante. Notable, porque tenemos el privilegio de presenciar lo que quizás sea la revolución científica y tecnológica más significativa de la historia de la humanidad. Preocupante, porque el tiempo se ha acortado más allá de cualquier precedente histórico y podría estar acelerándose.

En 1965, al revisar el progreso de la IA para la Corporación RAND, el filósofo Hubert Dreyfus comparó los enfoques para desarrollar inteligencia artificial a nivel humano con intentar llegar a la Luna trepando un árbol. Durante décadas, esto pareció correcto. Pero a medida que la evidencia aumenta, es cada vez más evidente que juzgamos mal la naturaleza de la Luna y el poder del árbol. La inteligencia general puede, de hecho, surgir de reglas de aprendizaje simples aplicadas a escala a patrones latentes en el lenguaje humano; patrones lo suficientemente ricos, resulta, como para codificar gran parte de la estructura de la realidad misma.

Nicolás Copérnico desplazó a los humanos del centro del cosmos. Darwin los desplazó de un lugar privilegiado en la naturaleza. Turing sugirió que los humanos podrían no encarnar la única forma de ser inteligente. Las máquinas que Turing imaginó hace 75 años finalmente han llegado, en una forma más alienígena y más humana de lo que nadie hubiera imaginado. Al igual que aquellas revoluciones anteriores, esta nos invita a repensar nuestra posición y a aceptar que existen más tipos de mentes de las que habíamos considerado. Nuestro lugar en el mundo y nuestra comprensión de la mente no serán los mismos.

Link https://www.nature.com/articles/d41586-026-00285-6

 

spot_img
spot_img

Veinte Manzanas

spot_img

Al Toque

Maximiliano Gregorio-Cernadas

La IA plantea interrogantes desatendidos

Rodolfo Terragno

Detrás de la guerra: cocaína, átomos y petróleo

Eduardo A. Moro

¿Qué harías, si fueses joven hoy, para enfrentar esto?