miércoles 13 de agosto de 2025
spot_img

Saberes. El riesgo de tercerizar en la IA las tareas complejas de pensamiento

Vivimos una contradicción inquietante.

Como ya dijimos aquí, la IA domina el conocimiento explícito –el que puede documentarse y transmitirse: “tokenizarse”–, a diferencia del tácito: saber práctico formado en la experiencia humana. Esto, que abre la puerta a una complementación natural entre el humano y el algoritmo, también genera una paradoja: el uso intensivo de IA en tareas complejas socava las condiciones que permiten formar ese conocimiento tácito que –al menos por ahora– dibuja uno de los límites de la sustitución tecnológica.

Una investigación reciente de Anthropic, basada en el análisis de conversaciones estudiantiles con chatbot Claude, encontró que casi la mitad (47%) de las interacciones con IA son “conversaciones directas”, con mínima participación, orientadas a resolver consultas rápidamente en lugar de fomentar el diálogo o el intercambio.

Más revelador aún: cuando se analizaron las tareas cognitivas que los estudiantes delegan a la IA usando la Taxonomía de Bloom, se descubrió que principalmente tercerizan funciones de orden superior como crear (39.8%) y analizar (30.2%), mientras que recordar representa apenas el 1.8%. Ciencias de la Computación lidera la adopción (38.6% de conversaciones con solo 5.4% de graduados), seguidas por Ciencias Naturales y Matemáticas. Humanidades y Salud tienen menor uso relativo.

Esto que parece un problema académico es, en realidad, un síntoma de una transformación cognitiva más profunda.

La revancha del seniority

El conocimiento tácito se cultiva en la experiencia: es la intuición que alerta a un médico pese a estudios normales; el juicio de un maestro para decidir cuándo presionar o dar espacio; la pericia de un ingeniero para detectar fallas que las simulaciones no captan.

Este conocimiento tácito está “escrito en el cuerpo”: en las vías neuronales formadas por la práctica, en la memoria muscular de la repetición, en el reconocimiento que surge del contacto con la complejidad del mundo real.

Aquí es donde la paradoja se vuelve más clara: la IA es tan buena manejando conocimiento explícito que cada vez más nos sentimos tentados a tercerizar nuestro pensamiento. Pero al hacerlo, corremos el riesgo de atrofiar la formación del conocimiento tácito que la IA no puede replicar.

Consideremos lo que sucede cuando los estudiantes buscan consistentemente respuestas directas de la IA en lugar de luchar con los problemas por sí mismos. Pueden completar tareas eficientemente, pero se pierden la lucha cognitiva que construye resistencia intelectual y desarrolla comprensión intuitiva. Obtienen el conocimiento explícito –los hechos, las respuestas correctas– pero no desarrollan el conocimiento tácito que proviene de enfrentarse con la incertidumbre, cometer errores y aprender a confiar en su propio juicio.

El estudio de Anthropic también identificó patrones preocupantes en el uso “directo” de IA: respuestas a preguntas de opción múltiple en machine learning, respuestas directas a exámenes de idiomas, y reescritura de textos de marketing para evitar detectores de plagio. Como el reporte advierte: “Existen preocupaciones legítimas de que los sistemas de IA puedan proporcionar una muleta para los estudiantes, limitando el desarrollo de habilidades fundamentales necesarias para apoyar el pensamiento de orden superior”.

La experiencia, clave

El problema se extiende más allá de las aulas. La trampa de Turing –el escenario donde delegamos tanto pensamiento a la IA que perdemos las experiencias que generan expertise humana– ya tiene precedentes. Pensemos cómo el GPS ha reducido nuestras habilidades espaciales, o cómo las calculadoras alteraron el cálculo mental.

Ahora imaginemos esta dinámica desarrollándose en cada dominio del trabajo intelectual. Creamos un círculo vicioso donde:

1. La IA maneja tareas de conocimiento explícito más eficientemente que los humanos

2. Los humanos dependen cada vez más de la IA para estas tareas

3. Los humanos pierden oportunidades para desarrollar conocimiento tácito a través de la práctica

4. Se amplía la brecha entre capacidad humana e IA

5. Aumenta la dependencia de la IA

Es la distopía silenciosa de la película Wall-E, donde, tras delegar toda la actividad a sistemas automatizados, los humanos terminan con sus cuerpos y mentes atrofiados.

¿Corremos el riesgo de algo similar con nuestra experiencia intelectual? Cuando dejamos que los modelos de lenguaje nos “atiendan” el conocimiento, nos volvemos consumidores pasivos de respuestas perfectamente formuladas, pero dejamos de ejercitar el juicio que da forma a nuestra inteligencia. El músculo cognitivo también se atrofia cuando no se entrena.

Pensar fuera del manual

La ironía es que el conocimiento tácito se vuelve más valioso, no menos, en un mundo dominado por IA. Cuando el conocimiento explícito se convierte en commodity, el juicio humano es el recurso escaso. La capacidad de saber cuándo confiar en los resultados de la IA, cómo formular las preguntas correctas y cuándo anular las recomendaciones algorítmicas se vuelve crucial.

Como reconoce la propia IA sobre sus limitaciones: los modelos de lenguaje aprenden “analizando patrones y estructuras en grandes cantidades de datos textuales” pero carecen de “la capacidad de adquirir o aplicar [conocimiento tácito] de la misma manera que una persona lo haría a través de la práctica y experiencia directa”.

Inteligencia complementaria

En lugar de usar la IA para evitar pensar, necesitamos enfoques donde potencie –y no reemplace– el desarrollo cognitivo.

El objetivo no es competir con la IA en conocimiento explícito, sino cultivar las capacidades únicamente humanas que emergen de la experiencia, la práctica y el aprendizaje encarnado –vivido, irrepetible–, análogo en el conocimiento a lo que el “aura” es en la creatividad.

En lugar de enfocarnos principalmente en transferencia de información, necesitamos enfatizar el desarrollo de juicio, intuición y el tipo de sabiduría práctica que solo puede provenir de enfrentarse directamente con situaciones complejas y ambiguas.

Esto requiere diseñar interacciones que preserven el desarrollo cognitivo: en educación, pidiendo que los estudiantes compartan sus prompts junto con las tareas, creando evaluaciones que prioricen el juicio y enfatizando el aprendizaje experiencial; en el trabajo, usando IA para recopilar sin reemplazar la decisión humana y garantizando experiencia práctica.

La evidencia empírica respalda estas preocupaciones: estudios recientes documentan reducciones en el esfuerzo cognitivo y el pensamiento crítico asociadas al uso intensivo de IA. Sin embargo, la paradoja de la tercerización apunta a algo más fundamental: las mismas capacidades de IA que hacen el conocimiento explícito universalmente accesible podrían socavar el desarrollo del conocimiento tácito que nos mantiene relevantes.

Esta paradoja también señala una solución. Al entender qué hace único e irreemplazable al conocimiento humano, podemos diseñar interacciones con IA que fortalezcan nuestra agencia intelectual.

El futuro no será de quienes compitan con la IA, sino de quienes sepan pensar con ella, preservando el aprendizaje experiencial que produce el irreemplazable discernimiento humano. El desafío no es solo tecnológico: es qué tipo de aprendices y pensadores elegimos ser en la era de la IA.

Como decía Aristóteles, hay saberes que solo emergen del encuentro directo con el mundo. La paradoja de la tercerización cognitiva no es tecnológica, sino pedagógica: no es solo lo que la IA no hace, sino lo que dejamos de hacer al usarla como atajo. Lo que perdemos no es una habilidad puntual, sino la experiencia que la forma.

Publicado en La Nación el 9 de agosto de 2025.

spot_img
spot_img

Veinte Manzanas

spot_img

Al Toque

Marcelo Insúa

Democracia mínima o la utopía democrática: de O’Donnell a Schumpeter, de Alfonsín a Milei

Martín D'Alessandro

La preocupación global por la democracia

Alejandro Garvie

Carreras y carreras