miércoles 4 de diciembre de 2024
spot_img

Cómo la IA está cambiando silenciosamente la vida cotidiana

Y lo que Washington está haciendo al respecto entre bastidores.

Traducción Alejandro Garvie

La inteligencia artificial no es sólo una herramienta especializada para hacer trampa en los deberes o generar imágenes extrañas y engañosas. Ya está funcionando de maneras invisibles y no reguladas que están afectando a millones de estadounidenses que tal vez nunca hayan oído hablar de ChatGPT, Bard u otras palabras de moda.

Una proporción cada vez mayor de empresas, escuelas y profesionales médicos han adoptado silenciosamente la IA generativa y realmente no hay vuelta atrás. Se está utilizando para seleccionar candidatos a puestos de trabajo, dar clases particulares a niños, comprar una casa y brindar asesoramiento médico.

La administración Biden está tratando de reunir a las agencias federales para evaluar qué tipo de reglas tienen sentido para la tecnología. Pero los legisladores en Washington, las capitales de los estados y los ayuntamientos han tardado en descubrir cómo proteger la privacidad de las personas y evitar que se hagan eco de los prejuicios humanos incorporados en gran parte de los datos con los que se entrena a las IA.

“Hay cosas para las que podemos usar la IA y que realmente beneficiarán a las personas, pero hay muchas maneras en que la IA puede dañar a las personas y perpetuar las desigualdades y la discriminación que hemos visto durante toda nuestra historia”, dijo Lisa Rice, presidenta y directora ejecutiva de la Alianza Nacional de Vivienda Justa.

Si bien los principales reguladores federales han dicho que se pueden utilizar leyes antidiscriminatorias de décadas de antigüedad y otras protecciones para vigilar algunos aspectos de la inteligencia artificial, el Congreso ha luchado por avanzar propuestas para nuevos sistemas de licencias y responsabilidad para los modelos de IA y requisitos centrados en la transparencia y la protección de la seguridad los niños.

“¿El profano promedio no sabe cuáles son los límites de esta tecnología?” dijo Apostol Vassilev, supervisor del equipo de investigación centrado en IA en el Instituto Nacional de Estándares y Tecnología. “¿Cuáles son las posibles vías de fracaso y cómo estos fracasos pueden afectar realmente su vida?”

Así es como la IA ya está afectando:

Cómo la gente consigue un trabajo

La IA ya ha influido en la contratación, especialmente en los empleadores que utilizan una herramienta de entrevistas por vídeo.

Hoy en día, contratar tecnología no consiste solo en buscar palabras clave en los currículums, sino que también utiliza potentes herramientas de procesamiento del lenguaje para analizar las respuestas de los candidatos a las preguntas escritas y en video de las entrevistas, dijo Lindsey Zuloaga, científica jefe de datos de HireVue, una empresa de recursos humanos impulsada por inteligencia artificial conocida por sus herramientas de entrevistas en video.

 

 

Puede llegar un punto en el que los entrevistadores humanos se vuelvan obsoletos para algunos tipos de trabajos, especialmente en industrias de alta rotación como la comida rápida, dijo Zuloaga.

La Comisión de Igualdad de Oportunidades en el Empleo, la pequeña agencia encargada de hacer cumplir los derechos civiles en el lugar de trabajo, está siguiendo de cerca los avances en la tecnología. Ha emitido una guía que aclara que las leyes contra la discriminación aún se aplican (y los empleadores aún pueden ser considerados responsables de sus violaciones) incluso cuando las IA ayudan en la toma de decisiones. Sin embargo, no ha promulgado nuevas regulaciones.

El año pasado, Nueva York implementó un mandato de transparencia y auditorías anuales para detectar posibles sesgos en las decisiones de contratación automatizadas, aunque la forma de esas revisiones aún se está definiendo.

La presidenta de la EEOC, Charlotte Burrows, le dijo anteriormente a POLITICO que aún se estaba considerando la elaboración de reglas en su agencia; sin embargo, el miembro republicano Keith Sonderling ha dicho que cuestiones como la divulgación de la contratación de IA pueden dejarse en manos de los empleadores y los gobiernos estatales y locales.

La asesora general de la agencia, Karla Gilbride, dijo a los periodistas en enero que su oficina está buscando específicamente casos de discriminación por IA como parte de su plan de aplicación de la ley para los próximos años. Citando la orientación anterior de la agencia, dijo que las áreas potenciales de riesgo incluyen la IA que discrimina a los solicitantes de empleo con discapacidades.

“Es un panorama en desarrollo”, dijo Gilbride. “Es algo a lo que no sólo la EEOC, sino creo que la nación y el mundo en su conjunto todavía se están adaptando”.

Si bien la IA generativa ha sido anunciada como una asistente sofisticada para muchos tipos de trabajadores, los líderes sindicales se han alarmado sobre si rápidamente se convierte en una herramienta para la vigilancia invasiva de la productividad de los trabajadores.

Otra es si los empleadores podrían utilizar un algoritmo para anular el juicio sobre el terreno que tienen sus trabajadores. Los hoteles ya están viendo cómo se utiliza la tecnología de esta manera, dijo en una entrevista la presidenta de la AFL-CIO, Liz Shuler: El personal de limpieza podría querer ordenar las habitaciones, mientras que un algoritmo podría decirles que “hagan ping pong de un lado a otro en los pisos” para priorizar las habitaciones más altas con clientes que pagan más.

Un regulador gubernamental sobre la nueva tecnología de IA, similar a la FDA para alimentos y medicamentos, podría ser una solución parcial, dijo Shuler. También sería útil el apoyo federal para la capacitación y reentrenamiento de los trabajadores, afirmó.

El Departamento de Trabajo de Biden ha expresado que quiere dirigir el desarrollo de la IA de una manera que tenga en cuenta las voces de los trabajadores.

“Si continuamos por un camino en el que no tenemos barandillas, en el que no damos prioridad al bienestar de los trabajadores, entonces no querríamos mirar atrás y decir: ¿qué pasó?” dijo la secretaria de Trabajo en funciones, Julie Su.

Cómo se educa a los niños

Si bien ChatGPT ha agitado al mundo académico con preocupaciones sobre las trampas y cómo controlarlas, la IA está comenzando a ayudar a los estudiantes y profesores con las tareas y el aprendizaje cotidianos.

Algunas escuelas están utilizando la tecnología para mejorar el rendimiento de los estudiantes a través de tutorías impulsadas por IA. Los distritos, incluidas las Escuelas Públicas de Newark en Nueva Jersey, están poniendo a prueba el chatbot de inteligencia artificial Khanmigo de Khan Academy, por ejemplo.

Otros distritos escolares están utilizando la IA para mejorar la creatividad de los estudiantes. En el Distrito Escolar Unificado de Maricopa, al sur de Phoenix, Arizona, algunas escuelas utilizan Canva y otras plataformas de inteligencia artificial para generar imágenes que ayuden con proyectos de arte y editar fotografías.

“La idea es que lo estén usando para crear”, dijo Christine Dickinson, directora de tecnología del distrito de Maricopa. “Sé que lo usan bastante en casa, pero nuestros maestros también están siendo muy conscientes de las herramientas que tienen implementadas para garantizar que todos los estudiantes, nuevamente, creen sus propios resultados y no los usen sólo para reemplazar el producto real”.

Las escuelas buscan orientación en sus gobiernos estatales y en el apoyo de grupos educativos sobre cómo utilizar mejor la IA en el aula mientras navegan por una serie de dilemas de privacidad y equidad que la tecnología podría crear.

En última instancia, las decisiones sobre cómo se utilizará la IA en el aula quedarán en manos de los distritos escolares. Pero los funcionarios federales, estatales y locales han sido claros acerca de la necesidad de que la IA simplemente ayude con la enseñanza y el aprendizaje y no reemplace a los educadores.

“Varios distritos y educadores sintieron curiosidad desde el principio sobre cómo íbamos a aprovechar esto como una oportunidad y como una advertencia”, dijo la directora del Departamento de Educación de Oregón, Charlene Williams, sobre la inteligencia artificial. Pero “nada va a reemplazar jamás a un maestro y la importancia de contar con la supervisión de un adulto”, afirmó.

Cómo navegan los compradores de viviendas en el mercado inmobiliario

Debido a que la IA es buena para el análisis de datos complejos, tiene el potencial de renovar la industria inmobiliaria y, al igual que la contratación, también consagrar los prejuicios humanos que han dado forma a la compra de viviendas en Estados Unidos durante generaciones.

Zillow señala su herramienta “Zestimate”, que calcula el valor de una vivienda, como un ejemplo de cómo la IA puede brindar a los compradores y vendedores de viviendas más información mientras toman una decisión financiera complicada.

“Estamos utilizando IA para comprender las preferencias de los usuarios y ayudarlos a encontrar el hogar adecuado”, dijo Ondrej Linda, director de ciencias aplicadas de Zillow. “¿Cómo ayudamos a las personas a imaginarse a sí mismas en un hogar? La IA hace que sea más fácil comprender el sector inmobiliario, tomar la decisión correcta y planificar el futuro”.

Pero los algoritmos no son imparciales, advierten grupos de derechos civiles: han recibido datos de una sociedad donde el legado de la línea roja (la práctica racista de usar mapas emitidos por el gobierno para disuadir a los bancos de otorgar préstamos en vecindarios negros) se refleja en la información sobre las escuelas, hogares y tiendas de comestibles décadas después de que la práctica fuera oficialmente prohibida.

Rice, de la Alianza Nacional de Vivienda Justa, dijo que le preocupa que los modelos de selección de inquilinos que incorporan inteligencia artificial dificulten a los consumidores investigar una decisión que podría negarles una vivienda.

“Hay muy poca transparencia detrás de estos sistemas, por lo que las personas se ven excluidas de oportunidades de vivienda y no saben por qué”, dijo Rice.

Los algoritmos ya han entrado en conflicto con la ley federal de vivienda justa, según una investigación del Departamento de Vivienda y Desarrollo Urbano (HUD).

En 2022, Meta llegó a un acuerdo con el Departamento de Justicia después de que HUD alegara que los algoritmos de Facebook violaban la ley al permitir a los anunciantes dirigir anuncios de vivienda a los usuarios en función de su raza, género y otros factores. La empresa, que no admitió haber cometido ningún delito como parte del acuerdo, acordó descontinuar la herramienta publicitaria y revisar sus métodos de entrega de anuncios de vivienda como parte del acuerdo.

La vivienda es un área en la que las agencias federales han abordado de frente la cuestión de la reglamentación de la IA. Recelosos de la capacidad de la IA para codificar los prejuicios humanos, la Oficina de Protección Financiera del Consumidor (CFPB), la Agencia Federal de Financiamiento de la Vivienda y otros reguladores propusieron en junio una norma para controlar la forma en que se utiliza la IA en las tasaciones del valor de las viviendas.

Luego, en septiembre, la CFPB emitió una guía que detalla los pasos que los prestamistas deben tomar para asegurarse de identificar “razones específicas y precisas” para negarle crédito a alguien cuando dependen de la inteligencia artificial u otros algoritmos complejos.

Y la orden ejecutiva del presidente Joe Biden de octubre ordenó a la Agencia Federal de Financiamiento de la Vivienda que considerara exigir a los financistas hipotecarios federales que evaluaran sus modelos de suscripción para detectar discriminación y utilizaran la automatización de una manera que minimice el sesgo.

Cómo interactúan los médicos con los pacientes

La IA se está convirtiendo cada vez más en un copiloto para los médicos de todo el país.

Cuando a un paciente se le hace una radiografía, los sistemas de inteligencia artificial ahora ayudan a los médicos a descifrar las imágenes, y algunos pueden hacerlo tan bien como un humano, según estudios recientes. Y ya se están poniendo a trabajar para medir y mejorar el desempeño de los radiólogos.

Más allá de las imágenes, los nuevos sistemas de IA están ayudando a los médicos a dar sentido a sus notas, conversaciones con pacientes y resultados de pruebas. Se están utilizando para ofrecer a los médicos causas probables de las dolencias de un paciente, aunque la tecnología a veces elude las normas gubernamentales que examinan los nuevos dispositivos médicos y medicamentos.

El oncólogo del Centro Médico de UCLA, Wayne Brisbane, utiliza IA para ayudar a predecir cómo se manifiesta el cáncer de próstata dentro del cuerpo de una persona.

“El cáncer de próstata es una enfermedad complicada”, dijo en una entrevista. Los tumores crecen en múltiples ubicaciones y se extienden de maneras que es posible que no se detecten en las imágenes.

“Es como un pulpo o un cangrejo. Tiene un cuerpo grande, pero tiene estos pequeños tentáculos que se extienden. Por lo tanto, determinar los márgenes de dónde se realizará esta lumpectomía o tratamiento puede ser difícil”, dijo Brisbane. La IA facilita mucho la planificación quirúrgica, afirmó.

La Administración de Alimentos y Medicamentos ha adoptado un enfoque experimental para regular la IA en dispositivos médicos, principalmente emitiendo planes estratégicos y orientación política.

El mayor desafío a la hora de regular la IA es que evoluciona con el tiempo y las empresas no quieren volver a solicitar la autorización de la FDA para comercializar su tecnología. Como resultado, en abril de 2023, la FDA publicó un borrador de guía que indica a las empresas cómo divulgar las actualizaciones planificadas de sus algoritmos en sus aplicaciones iniciales. Hasta ahora, la agencia ha autorizado casi 700 dispositivos de este tipo.

Mientras tanto, la Oficina del Coordinador Nacional del Departamento de Salud y Servicios Humanos emitió una norma de transparencia de datos a finales del año pasado que exige que los desarrolladores de IA proporcionen un cierto nivel de transparencia de datos a los sistemas de salud para que puedan garantizar que la tecnología sea segura y justa.

La orden ejecutiva de Biden sobre IA también encarga al HHS la creación de un grupo de trabajo sobre IA, un programa de seguridad y una política de garantía.

Incluso más que practicar la medicina, la IA está logrando avances en la digestión del papeleo que ha llegado a definir los 4 billones de dólares en facturas médicas que los estadounidenses acumulan cada año.

Las empresas están experimentando con nuevas herramientas que podrían revolucionar la forma en que se generan y procesan las facturas entre los proveedores de atención y las aseguradoras. En todo el sector, están en juego enormes sumas de dinero, no sólo por el potencial ahorro de mano de obra y tiempo, sino también porque la tecnología puede examinar las facturas de manera más eficiente y está construyendo un récord en el aumento de los ingresos.

Los defensores de la tecnología dicen que significa que los pacientes enfrentarán un tiempo de procesamiento de reclamos más corto, lo que hará que la atención sea más accesible. Pero a los escépticos les preocupa que la IA pueda reducir la transparencia y la rendición de cuentas en la toma de decisiones tanto entre proveedores como entre aseguradoras.

UnitedHealthcare y Cigna enfrentan demandas que acusan a las empresas de utilizar IA y otras fórmulas sofisticadas para negar sistemáticamente la atención. La denuncia contra Cigna alega que la compañía utilizó un algoritmo para señalar cualquier atención al paciente que no estuviera en su lista de tratamientos aceptables para el diagnóstico. El algoritmo adjudicaría las reclamaciones de los pacientes y un médico revisaría y firmaría ese hallazgo, dedicando tan solo un segundo a dichos rechazos, según un informe de ProPublica.

UnitedHealthcare está siendo acusado de utilizar un algoritmo patentado para defraudar a los pacientes en la atención. La demanda también afirma que el algoritmo tiene una tasa de error del 90 por ciento, una afirmación que, de ser cierta, tiene profundas implicaciones para los 52,9 millones de estadounidenses cubiertos por United.

Cigna emitió un comunicado diciendo que su tecnología no es IA y sólo se utiliza en reclamaciones de bajo costo. También dijo que no niega la atención porque la revisión se lleva a cabo después del tratamiento y la mayoría de los solicitantes no tienen que pagar costos adicionales incluso si se rechaza el reclamo.

UnitedHealth Group también dijo que su herramienta de predicción naviHealth no es IA generativa ni se utiliza para tomar determinaciones de cobertura. “Las decisiones de cobertura adversas las toman los directores médicos y son consistentes con los criterios de cobertura de Medicare para los planes Medical Advantage”, dijo un portavoz de la compañía en un comunicado.

Pero al igual que en el caso de la vivienda, también existe la preocupación de que los algoritmos no traten a las personas por igual. La ciudad de Nueva York lanzó una Coalición para acabar con el racismo en algoritmos clínicos en 2021 para lograr que los sistemas de salud dejen de utilizar metodologías sesgadas, ya que la IA que utiliza conjuntos de datos con una diversidad insuficiente puede generar resultados sesgados.

Sin embargo, en todas las industrias, los esfuerzos para reducir el sesgo de la IA eliminando cierta información también pueden hacer que esos sistemas sean menos robustos, dijo Vassilev del NIST. Determinar el equilibrio adecuado también puede depender de la industria, dijo, una balanza que, por el momento, se inclina sin intervención del gobierno.

“No se puede tenerlo todo”, afirmó. “Hay que llegar a un compromiso y aprender a vivir con un presupuesto de riesgo en cualquiera de estas vías”.

Link https://www.politico.com/news/2024/02/04/how-ai-is-quietly-changing-everyday-life-00138341

 

spot_img
spot_img

Veinte Manzanas

spot_img

Al Toque

Alejandro J. Lomuto

El cesaropapismo del siglo XXI

Fernando Pedrosa

Latinoamérica, después de Biden, a la espera de Trump

Maximiliano Gregorio-Cernadas

Alegato por la libertad