Estos sistemas aún tienen dificultades para implementar soluciones prácticas.
Traducción Alejandro Garvie
Recientemente, asistí a una presentación de un ingeniero de OpenAI sobre las increíbles transformaciones que se producirán una vez que alcancemos la inteligencia artificial general (IAG), o incluso la superinteligencia. Afirmó que esto resolverá rápidamente muchos de los problemas del mundo: las tasas de crecimiento del PIB podrían aumentar al 10, 15 e incluso 20 por ciento anual, se curarán enfermedades, la educación se revolucionará y las ciudades del mundo en desarrollo se transformarán con agua potable para todos.
Conozco bien este último punto. Durante la última década, he impartido clases sobre casos prácticos que explican por qué ciudades del sur de Asia, como Hyderabad y Dhaka, han tenido dificultades para proporcionar agua potable. La razón no es que desconozcamos cómo es un sistema de agua eficiente ni que carezcamos de la tecnología para construirlo. Tampoco se trata simplemente de una falta de recursos: las instituciones multilaterales de desarrollo llevan años financiando proyectos hídricos.
Los obstáculos son diferentes y son puramente políticos, sociales y culturales. Los habitantes de estas ciudades tienen la capacidad de pagar más por el agua, pero desconfían de que sus gobiernos malgasten recursos en corrupción o gestión incompetente. Las empresas no quieren las interrupciones que provoca la construcción de infraestructuras a gran escala, y muchas ciudades albergan “mafias del agua” que compran agua barata y la revenden a precios exorbitantes a la población pobre. Estas mafias están armadas y dispuestas a usar la violencia contra cualquiera que desafíe sus monopolios. El Estado es demasiado débil para controlarlas o para hacer cumplir las excelentes leyes que ya tienen vigentes.
Resulta difícil imaginar cómo incluso la IA más superinteligente podría ayudar a resolver estos problemas. Esto pone de manifiesto una idea errónea fundamental que aqueja a todo el campo de la IA: una sobreestimación flagrante del valor de la inteligencia por sí sola para resolver problemas.
En la docencia que he impartido durante las últimas dos décadas, y en el programa de Maestría en Política Internacional que dirijo en Stanford, he contribuido al desarrollo de un marco para la resolución de problemas públicos que ahora enseñamos a todos nuestros estudiantes. (También reconozco la contribución de mi antiguo colega Jeremy Weinstein, actual decano de la Escuela de Gobierno Kennedy de Harvard). El marco es sencillo y consta de tres círculos:
Existe un problema que va mucho más allá de la IA y que afecta a nuestra forma de abordar la resolución de problemas públicos en general. La mayor parte del esfuerzo, y lo que la mayoría de los programas académicos de política pública buscan enseñar, se centra en los dos primeros círculos: Identificación del problema y Desarrollo de soluciones. De hecho, muchos programas se centran exclusivamente en el Desarrollo de soluciones: enseñan a los aspirantes a responsables políticos a recopilar datos y utilizar una serie de potentes herramientas econométricas para analizarlos. Esto da como resultado un conjunto de soluciones óptimas que un analista político puede presentar a su superior como un camino a seguir. Lo que falta en este enfoque es lo que se encuentra en el tercer círculo: la implementación. Nuestro analista político principiante suele descubrir que, tras entregar un excelente informe con opciones a su jefe, no sucede nada. Esto se debe a que existen demasiados obstáculos —políticos, sociales y culturales— para llevar a cabo la política preferida, como en el ejemplo del agua municipal.
Así pues, volvamos al papel que desempeñará la IA en este ámbito. La IA general sin duda ayudará en el primer círculo: identificar a las partes interesadas, mapear el espacio causal y definir el problema. Será de gran ayuda en el segundo círculo: recopilar datos y analizarlos para encontrar soluciones óptimas. Pero la inteligencia solo llega hasta el final del segundo círculo y su ayuda es limitada en el tercero. Un modelo de aprendizaje automático no puede interactuar directamente con las partes interesadas, comunicarse con ellas ni proporcionarles recursos. En particular, un modelo de aprendizaje automático no podrá participar en el tipo de diálogo iterativo entre los responsables políticos y la ciudadanía que se requiere para una implementación eficaz de las políticas. Probablemente se enfrentará a grandes desafíos para generar la confianza necesaria para que las políticas sean aceptadas y adoptadas.
La IA no solo tiene dificultades para lidiar con obstáculos políticos y sociales; los sistemas de aprendizaje automático tienen una capacidad limitada para manipular directamente objetos físicos. La IA interactúa con el mundo físico principalmente a través de la robótica, pero este campo se ha quedado considerablemente rezagado con respecto al desarrollo de los robots humanoides. Los robots se han multiplicado enormemente en las últimas décadas y son omnipresentes en la industria manufacturera, la agricultura y muchos otros ámbitos. Sin embargo, la gran mayoría de los robots actuales son programados por humanos para realizar un rango limitado de tareas muy específicas. El mundo quedó asombrado recientemente por los robots humanoides chinos que realizaban movimientos de kung fu, pero sospecho que los robots no aprendieron a actuar de esa manera por sí mismos.
Los robots humanoides con capacidades robóticas no tienen la capacidad de resolver ni siquiera problemas físicos sencillos que sean novedosos o que estén fuera de su conjunto de entrenamiento. Mi colega Alex Stamos, un reconocido experto en ciberseguridad, lo expresa así: “Mi perro sabe más física que un robot humanoides”. Un robot humanoides podría enunciar las leyes del movimiento de Newton, pero no podría dirigir a un robot para que persiga un frisbee como lo hace el perro de Alex, porque ese conjunto particular de movimientos no está en su conjunto de entrenamiento. Podría programarse para hacerlo, pero eso es producto de la inteligencia humana, no de la IA.
Aquí tienen un ejemplo de las limitaciones actuales de la IA. Hace poco, un técnico de climatización reemplazó la caldera de mi casa. El técnico fotografió y midió la distribución de la casa; tuvo que instalar los nuevos conductos y el cableado de forma específica para el diseño de mi vivienda. Resultó que la nueva caldera no cabía por la puerta del ático; tuvo que hacer una abertura más grande con una sierra de vaivén y luego reparar el marco de la puerta una vez instalada la nueva unidad. No existe ningún robot en el mundo que pueda hacer lo que hizo mi técnico, y es muy difícil imaginar que un robot adquiera tales capacidades en un futuro cercano, con o sin IA general. Los robots podrían llegar a ese nivel con el tiempo, pero ese nivel de capacidad humana sigue siendo un objetivo lejano.
Muchos de los entusiastas que ensalzan las capacidades de la IA conciben los problemas de política como si fueran problemas matemáticos de larga data que los seres humanos han tenido grandes dificultades para resolver, como el teorema del mapa de cuatro colores o el problema del conjunto de tapas. Pero los problemas matemáticos son de naturaleza puramente cognitiva, y no sorprende que la IA pueda avanzar en ese ámbito. Quienes desarrollan sistemas de IA son muy inteligentes matemáticamente y tienden a sobrevalorar la importancia de este tipo de inteligencia pura.
Los problemas de política son diferentes. Requieren una conexión con el mundo real, ya sean objetos físicos o actores con intereses arraigados que no necesariamente desean que se produzcan cambios. Como ha demostrado el historiador económico Joel Mokyr, las revoluciones tecnológicas anteriores tardaron años e incluso décadas en materializarse tras los avances científicos y de ingeniería iniciales, porque esas ideas abstractas debían implementarse a gran escala en condiciones reales. La IA puede avanzar más rápido a nivel cognitivo, pero quizás no sea capaz de resolver los problemas de implementación con la misma rapidez que en periodos históricos anteriores.
Esto no significa en absoluto que la IA no vaya a ser enormemente transformadora. Pero el tipo de avances explosivos y autorreforzantes de la IA que algunos observadores predicen que están por venir aún tendrán que resolver problemas de implementación para los que las máquinas no están bien preparadas. Una tasa de crecimiento anual del diez por ciento duplicará el PIB en siete años. Sin embargo, el planeta Tierra no proporcionará ni remotamente los materiales (agua, tierra, minerales, energía o personas) necesarios para que esto suceda, por muy inteligentes que se vuelvan nuestras máquinas.
Link https://www.persuasion.community/p/ai-cant-deal-with-the-real-world








