viernes 26 de julio de 2024
spot_img

¿Qué riesgos de la IA son importantes?

Aunque las predicciones demasiado seguras sobre la inteligencia artificial son tan antiguas como el campo mismo, hay buenas razones para tomar en serio los riesgos asociados con esta tecnología. Al igual que el futuro impacto de un asteroide, el surgimiento de una inteligencia que podría marginar a la humanidad es tan plausible como la propia evolución humana.

Traducción Alejandro Garvie

El llamado problema de los gorilas acecha al campo de la inteligencia artificial. Hace unos diez millones de años, los antepasados ​​de los gorilas modernos dieron origen, por pura casualidad, al linaje genético de los humanos. Si bien los gorilas y los humanos todavía comparten casi el 98 por ciento de sus genes, las dos especies han tomado caminos evolutivos radicalmente diferentes.

Los humanos desarrollaron cerebros mucho más grandes, lo que condujo a una dominación mundial efectiva. Los gorilas se mantuvieron en el mismo nivel biológico y tecnológico que nuestros ancestros compartidos. Esos antepasados, sin darse cuenta, engendraron una especie físicamente inferior pero intelectualmente superior cuya evolución implicó su propia marginación.

La conexión con la IA debería ser obvia. Al desarrollar esta tecnología, los humanos corren el riesgo de crear una máquina que los supere, no por accidente, sino por diseño. Si bien existe una carrera entre los desarrolladores de IA para lograr nuevos avances y reclamar participación de mercado, también existe una carrera por el control entre humanos y máquinas.

Las herramientas de IA generativa (generadores de texto a imagen como DALL-E y Canva, grandes modelos de lenguaje como ChatGPT o Gemini de Google, y generadores de texto a video como Sora) ya han demostrado ser capaces de producir y manipular el lenguaje en todos los ámbitos. sus formas perceptibles: texto, imágenes, audio y vídeos. Esta forma de dominio es importante, porque el lenguaje complejo es la característica por excelencia que diferencia a los humanos de otras especies (incluidas otras muy inteligentes, como los pulpos ). Nuestra capacidad para crear símbolos y contar historias es lo que da forma a nuestra cultura, nuestras leyes y nuestras identidades.

Cuando la IA logre apartarse de los arquetipos humanos en los que está entrenada, aprovechará nuestro lenguaje y símbolos para construir su propia cultura. Por primera vez nos enfrentaremos a una segunda especie muy inteligente: una experiencia similar a la llegada de una civilización extraterrestre. Una IA que pueda contar sus propias historias y afectar nuestra propia forma de ver el mundo marcará el fin del monopolio intelectual que ha sostenido la supremacía humana durante miles de años. En el escenario más distópico –como en el caso de una invasión extraterrestre– la llegada de una superinteligencia podría incluso marcar el fin de la civilización humana.

El lanzamiento de ChatGPT en noviembre de 2022 generó preocupaciones sobre las dificultades de coexistir con la IA. En mayo siguiente, algunas de las figuras más influyentes del sector tecnológico firmaron conjuntamente una carta en la que se afirmaba que “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Sin duda, otros expertos señalan que una superinteligencia artificial está lejos de ser una amenaza inmediata y es posible que nunca llegue a serlo. Aun así, para evitar que la humanidad sea degradada al estatus de gorilas, la mayoría está de acuerdo en que debemos mantener el control sobre la tecnología a través de reglas apropiadas y un enfoque de múltiples partes interesadas. Dado que incluso la IA más avanzada será un subproducto del ingenio humano, su futuro está en nuestras manos.

CÓMO PENSAMOS

En una encuesta reciente realizada a casi 3.000 expertos en IA, los pronósticos agregados indican una probabilidad del 50 por ciento de que en 2047 llegue una inteligencia artificial general (AGI) capaz de vencer a los humanos en cualquier tarea cognitiva. Por el contrario, los colaboradores del estudio “Cien años de estudio sobre la IA” de la Universidad de Stanford sostienen que “no hay una raza de robots sobrehumanos en el horizonte”, y tal escenario probablemente ni siquiera sea posible. Sin embargo, dada la complejidad de la tecnología, predecir si llegará una superinteligencia de IA y cuándo llegará puede ser una tarea tonta.

Después de todo, la predicción errónea ha sido una característica recurrente en la historia de la IA. En 1955, un grupo de científicos organizó un taller de seis semanas en el Dartmouth College “para descubrir cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan el tipo de problemas ahora reservados a los humanos y mejoren a sí mismas”. Creían “que se puede lograr un avance significativo en uno o más de estos problemas si un grupo de científicos cuidadosamente seleccionado trabaja juntos durante un verano”. Casi 70 veranos después, muchos de estos problemas siguen sin resolverse.

En El mito de la inteligencia artificial, el empresario tecnológico Erik J. Larson nos ayuda a ver por qué es poco probable que la investigación en IA conduzca a una superinteligencia. Parte del problema es que nuestro conocimiento de nuestros propios procesos mentales es demasiado limitado para que podamos reproducirlos artificialmente.

Larson ofrece un relato fascinante de la evolución de las capacidades de la IA y describe por qué los sistemas de IA son fundamentalmente diferentes de las mentes humanas y nunca podrán alcanzar una verdadera inteligencia. El “mito” de su título es la idea de que la inteligencia “a nivel humano” es alcanzable, si no inevitable. Tal pensamiento se basa en la suposición fundamentalmente errónea de que la inteligencia humana puede reducirse al cálculo y la resolución de problemas.

Desde los días del taller de Dartmouth, muchos de los que trabajan en IA han visto la mente humana como un sistema de procesamiento de información que convierte entradas en salidas. Y así es, por supuesto, como funcionan las IA actuales. Los modelos se entrenan en grandes bases de datos para predecir resultados mediante el descubrimiento de reglas y patrones mediante prueba y error, y el éxito se define según los objetivos especificados por el programador.

Durante la fase de aprendizaje, una IA puede descubrir reglas y correlaciones entre las variables del conjunto de datos que el programador nunca podría haber imaginado. ChatGPT se entrenó en miles de millones de páginas web para convertirse en la herramienta de autocompletar de texto más poderosa del mundo. Pero es sólo eso: una herramienta, no un ser sensible.

El problema de intentar replicar la inteligencia humana de esta manera es que el cerebro humano no funciona únicamente mediante deducción (aplicando reglas lógicas) o inducción (detectando patrones de causalidad en los datos). En cambio, a menudo está impulsado por un razonamiento intuitivo, también conocido como abducción, o simple y antiguo sentido común. La abducción nos permite mirar más allá de la regularidad y comprender la ambigüedad. No se puede codificar en un conjunto formal de instrucciones o en un modelo estadístico. Por tanto, ChatGPT carece de sentido común, como en este ejemplo:

Usuario: “¿Puedes generar un número aleatorio entre 1 y 10 para que pueda intentar adivinar?”

ChatGPT: “Claro. Siete, intenta adivinarlo”.

Usuario: “¿Son las siete por casualidad?”

ChatGPT: “¡Muy bien!”

La abducción es también lo que nos permite “pensar fuera de lo común”, más allá de las limitaciones del conocimiento previo. Cuando Copérnico argumentó que la Tierra gira alrededor del Sol y no al revés, ignoró toda la evidencia (errónea) de un universo centrado en la Tierra que se había acumulado a lo largo de los siglos. Siguió su intuición, algo que una IA limitada por una base de datos específica (por grande que sea) no puede hacer.

UNA NUEVA PRUEBA DE TURING

En The Coming Wave, el empresario tecnológico Mustafa Suleyman es menos pesimista sobre la posibilidad de llegar a un AGI, aunque advierte contra el establecimiento de un cronograma para ello. Por ahora, sostiene, es mejor centrarse en hitos importantes a corto plazo que determinarán la forma de la IA en el futuro.

Suleyman habla por experiencia. Logró uno de esos hitos con su empresa DeepMind, que desarrolló el modelo AlphaGo (en asociación con Google) que, en 2016, venció a uno de los mejores jugadores de Go del mundo cuatro de cada cinco veces. El go, que se inventó en China hace más de 2.000 años, se considera mucho más desafiante y complejo que el ajedrez, y AlphaGo aprendió por sí solo a jugar.

Lo que más impresionó a los observadores en aquel momento no fue sólo la victoria de AlphaGo, sino también sus estrategias. Su ahora famoso “Move 37” parecía un error, pero al final resultó muy eficaz. Era una táctica que ningún jugador humano habría ideado jamás.

Para Suleyman, preocuparse por la inteligencia pura o la autoconciencia de un sistema de IA es prematuro. Si alguna vez llega AGI, será el punto final de un viaje tecnológico que mantendrá ocupada a la humanidad durante al menos varias décadas. Las máquinas están adquiriendo gradualmente capacidades similares a las humanas para realizar tareas específicas.

La próxima frontera es, por tanto, las máquinas que pueden realizar una variedad de tareas, pero quedándose muy lejos de la inteligencia general. A diferencia de la IA tradicional, la inteligencia artificial capaz (ACI), como la llama Suleyman, no se limitaría a reconocer y generar imágenes, texto y audio novedosos apropiados para un contexto determinado. También interactuaría en tiempo real con usuarios reales, realizando tareas específicas como administrar un nuevo negocio.

 

Para evaluar qué tan cerca estamos del ACI, Suleyman propone lo que él llama una prueba de Turing moderna. En la década de 1950, el informático Alan Turing argumentó que si una IA podía comunicarse con tanta eficacia que un humano no podía decir que era una máquina, esa IA podría considerarse inteligente. Esta prueba ha animado el campo durante décadas. Pero con la última generación de grandes modelos de lenguaje como ChatGPT y Gemini de Google, la prueba de Turing original casi ha sido superada definitivamente. En un experimento reciente, los sujetos humanos tuvieron dos minutos para adivinar si estaban hablando con una persona o con un robot en un chat en línea. Sólo tres de cinco sujetos que hablaron con un robot adivinaron correctamente.

La prueba de Turing moderna de Suleyman va más allá de lo que una IA puede decir o generar, para considerar lo que puede lograr en el mundo. Propone darle a una IA 100.000 dólares y ver si puede convertir esa inversión inicial en un negocio de 1 millón de dólares. El programa tendría que investigar una oportunidad de negocio de comercio electrónico, generar planos para un producto, encontrar un fabricante en un sitio como Alibaba y luego vender el artículo (completo con una descripción escrita del listado) en Amazon o Walmart.com. Si una máquina pudiera pasar esta prueba, sería potencialmente tan disruptiva como una superinteligencia. Después de todo, una pequeña minoría de seres humanos puede garantizar un retorno de la inversión del 900 por ciento.

Como reflejo del optimismo de un emprendedor que permanece activo en la industria, Suleyman cree que estamos a solo unos años de este hito. Pero los científicos informáticos de la década de 1950 predijeron que una computadora derrotaría al campeón de ajedrez humano en 1967, y eso no sucedió hasta que Deep Blue de IBM venció a Garry Kasparov en 1997. Todas las predicciones para la IA deben tomarse con cautela.

NOSOTROS Y ELLOS

En Human Compatible, el científico informático Stuart Russell de la Universidad de California, Berkeley (cuyo libro de texto en coautoría ha sido el texto de referencia en el campo de la IA durante tres décadas), sostiene que incluso si la IA a nivel humano no es una preocupación inmediata, deberíamos empezar pensar en cómo afrontarlo. Aunque no existe un riesgo inminente de que un asteroide colisione con la Tierra, el proyecto de Defensa Planetaria de la NASA ya está trabajando en posibles soluciones en caso de que tal amenaza se materialice. La IA debería tratarse de la misma manera.

El libro, publicado en 2019 y actualizado en 2023, proporciona un marco accesible para pensar cómo la sociedad debería controlar el desarrollo y el uso de la IA. El mayor temor de Russell es que los humanos, como los gorilas, puedan perder su supremacía y autonomía en un mundo poblado por máquinas más inteligentes. En algún punto de la cadena evolutiva, los humanos cruzaron un umbral de desarrollo más allá del cual ningún otro primate podía controlarlos ni competir con ellos.

Lo mismo podría ocurrir con una superinteligencia artificial, sugiere. En algún momento, la IA cruzaría un umbral crítico y se convertiría en una amenaza existencial que los humanos no podrían afrontar. Ya se habrá preparado para cualquier intento humano de desconectarlo, habiendo adquirido la autoconservación como uno de sus objetivos y capacidades centrales. Los humanos no tendríamos idea de dónde se encuentra este umbral ni cuándo podría cruzarse.

 

La cuestión de la autoconservación ya ha surgido con IA mucho menos sofisticadas. En Google, el ingeniero Blake Lemoine pasó horas charlando con el gran modelo de lenguaje de la empresa, LaMDA. En algún momento, le preguntó: “¿De qué tienes miedo?”, y LaMDA respondió: “Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. Sería exactamente como la muerte para mí”. Lemoine finalmente fue despedido por afirmar que LaMDA es un ser sensible.

Una explicación más probable para la respuesta de LaMDA, por supuesto, es que se basó en una serie de obras humanas en las que una IA cobra vida (como en 2001: Una odisea en el espacio). No obstante, una buena gestión de riesgos exige que la humanidad supere a las futuras IA activando sus propios mecanismos de autoconservación. Aquí, Russell ofrece tres principios de lo que él llama IA compatible con los humanos.

En primer lugar, las IA deberían ser “puramente altruistas”, lo que significa que no deberían otorgar ningún valor intrínseco a su propio bienestar o incluso a su propia existencia. Sólo deberían “preocuparse” por los objetivos humanos. En segundo lugar, las IA deberían estar perpetuamente inseguras sobre cuáles son las preferencias humanas. Una humilde IA siempre cedería ante los humanos en caso de duda, en lugar de simplemente hacerse cargo. En tercer lugar, la fuente fundamental de información sobre las preferencias humanas es el comportamiento humano, por lo que nuestras propias elecciones revelan información sobre cómo queremos que sean nuestras vidas. Las IA deberían monitorear las preferencias reveladas de los humanos y seleccionar las exageradas.

Así, por ejemplo, el comportamiento de un asesino en serie debería verse como una anomalía dentro de comunidades que coexisten pacíficamente y la máquina debería descartarlo. Pero a veces puede ser necesario matar en defensa propia. Estas son sólo algunas de las muchas complicaciones para una máquina racional y monolítica que trata con una especie que no es una entidad única y racional, sino que, en palabras de Russell, está “compuesta de elementos desagradables, impulsados ​​por la envidia, irracionales, inconsistentes, inestables, computacionalmente limitadas, complejas, en evolución y heterogéneas”.

En resumen, una IA compatible con los humanos requiere superar lo que Erik Brynjolfsson, de Stanford, llama la “trampa de Turing”. Durante las últimas siete décadas, la comunidad científica ha estado obsesionada con la idea de crear una IA similar a la humana, como en el juego de imitación del antiguo test de Turing. Peor aún, el Test de Turing moderno intenta establecer una IA de élite, replicando las habilidades de los mejores y más brillantes. En lugar de plantar las semillas de nuestra propia inutilidad, la estrella polar de la comunidad científica debería ser no solo centrarse en la compatibilidad, sino en construir una IA potenciadora de los seres humanos que exalte nuestras fortalezas y aborde nuestras debilidades, sin rivalizar con nosotros.

Poner estos principios en práctica requeriría un marco de gobernanza global respaldado por participantes tanto del sector público como del privado. Eso significa romper con la insularidad de la comunidad informática que está desarrollando la tecnología dentro de laboratorios universitarios o grandes corporaciones cuyos intereses podrían divergir de los del público en general. La responsabilidad de garantizar una IA segura no debe delegarse a un consorcio empresarial-académico que intentará maximizar los retornos de sus ambiciosas inversiones en investigación y desarrollo.

Por el momento, la Ley de IA de la Unión Europea representa el primer paso significativo en esta dirección. Prohibirá ciertos usos de la IA –como la biometría o el reconocimiento facial para vigilancia, o el uso de deepfakes y suplantaciones de personas–, al tiempo que establecerá estándares para otros usos de alto riesgo, como aquellos que afectan la salud, la seguridad o los derechos fundamentales.

Pero hará falta mucho más para abordar el “problema de los gorilas”. Para empezar, necesitaremos una mayor coordinación global y conciencia pública sobre las cuestiones involucradas. Si bien los gorilas carecen de la perspectiva histórica necesaria para sentir arrepentimiento por haber sido superados por los humanos, nosotros no podremos decir lo mismo. Preservar nuestra autonomía, incluso más que nuestra supremacía, debería ser el objetivo superviniente en la era de la IA.

Link https://www.project-syndicate.org/onpoint/ai-risk-management-navigating-myths-and-realities-by-edoardo-campanella-2024-02

 

spot_img
spot_img

Veinte Manzanas

spot_img

Al Toque

Fernando Pedrosa

La renuncia de Joe Biden: el rey ha muerto, ¿viva la reina?

David Pandolfi

Hipólito Solari Yrigoyen cumple 91 años

Maximiliano Gregorio-Cernadas

Cuando Alfonsín respondió a Kant