CENTRO CULTURAL SAN FRANCISCO SOLANO

La inteligencia artificial estará en la agenda de la Cumbre del G7 este verano. Imagen de FlyOfSwallow vía Adobe Stock.

Elena Simperl, Johanna Walker | January 31, 2024

Con la Cumbre de Seguridad de la IA de la Indestesidas por Reino Unido del otoño pasado ahora firmemente en la ventana trasera, esta Cumbre del G7 de verano está en el horizonte, donde la inteligencia artificial promete estar de nuevo en la agenda. Y con razón: El impacto de la IA en la humanidad está destinado a empequeñecer cambios anteriores en la tecnología. La inteligencia artificial ofrece un enorme potencial e inmenso riesgo. Por consiguiente, su regulación es importante para los gobiernos a nivel nacional e internacional.

En la cumbre de noviembre, países de todo el mundo, incluidos los Estados Unidos y China, firmaron la Declaración de Bletchley. En ella, las naciones se comprometieron a abordar juntos la AI, identificando los riesgos de seguridad de la IA de preocupación compartida y colaborando en políticas para mitigar estos riesgos. La IA Frontier se define como modelos de IA de propósito general altamente capaces que pueden realizar una amplia variedad de tareas y combinar o superar las capacidades presentes en los modelos más avanzados de hoy.

Innegablemente, se necesita una colaboración internacional cuando se trata de garantizar la seguridad en los sistemas de IA, por lo que el hecho de que la declaración tuviera un alcance global, e incluyera a naciones como China, y se basa en el trabajo transversal en curso de la OCDE, el GPAI (La Alianza Mundial sobre Inteligencia Artificial), y otros foros, es alentador. Si se puede llegar a un acuerdo sobre la IA en un entorno internacional como la próxima Cumbre del G7, también se puede ver un cambio real a nivel nacional.

Sin embargo, un acuerdo sobre la IA de la frontera, principalmente, no es suficiente. Actualmente se centra en la IA de la frontera en lugar de la IA fundacional (modelos que fueron entrenados para realizar una amplia variedad de tareas). Además, las preocupaciones en torno a los riesgos existenciales de la IA fronteriza son, en el mejor de los casos, exatroces y, en el peor, una distracción. En cambio, la regulación debería exigir que los conceptos de seguridad y responsabilidad estén arraigados en todos los sistemas de IA, por lo que abordan las desigualdades sociales que aquejan a los datos de formación, a los que introducen datos y a los que dependen de los sistemas de IA. Dicha regulación también debe incluir disposiciones para educar al público a medida que estos sistemas continúan desarrollándose, para que los usuarios finales entiendan las capacidades y limitaciones de las aplicaciones de IA, o se alfabetizan más IA.

Nuevas formas de IA generativa, principalmente OpenAI-s ChatGPT y Google-s Bard, han llegado a dominar los titulares de los medios recientemente. Sin embargo, toda una gama de sistemas de IA muy poderosos en uso durante la última década e incluso en años anteriores ya habían estado causando daños reales, exacerbando las desigualdades existentes en la sociedad. Por ejemplo, existen sesgos de edad y raza mayores en los sistemas autónomos de detección de vehículos: Una persona es más propensa a ser atacada por un automóvil de autoconduciendo si es joven y negro, en lugar de blanco y de mediana edad. La edad y los sesgos raciales existen en los vehículos autónomos porque los datos utilizados por las empresas de automóviles para entrenar a sus modelos a menudo no son representativos y sesgados hacia los blancos en su mediana edad.

Los estudios también han demostrado que algunos sistemas de reconocimiento facial de IA, que han existido en alguna forma desde la década de 1960 pero mucho más ampliamente utilizados en este siglo, detectaron a las mujeres negras como personas con un nivel mucho mayor de precisión cuando llevaban una máscara blanca, mostrando un sesgo hacia los hombres blancos. Los sistemas de detección de peatones asocian ser blancos con ser peatón, lo que resulta en resultados injustos, potencialmente mortales.

RELACIONADOS:

Si te preocupas por la humanidad, deberías tener más miedo de los humanos que de AI

 

Este tipo de problemas de seguridad deben abordarse ahora, en lugar de resolverse en el futuro.

El Reglamento de IA debe tratar no sólo el sesgo de datos, sino también la idoneidad de los datos. Si entrena un modelo de sufferIA con datos que no es representativo, de mala calidad, o no se adapta a una función de modelo, los resultados sufrirán. Tampoco es suficiente para que los datos sean limpios o representativos: También tiene que ser adecuado para su propósito. En un experimento reciente, se pidió a un modelo GPT-3.5 entrenado en 140.000 mensajes de canal Slack para escribir contenido. El sistema respondió: "Trabajaré en eso por la mañana". La respuesta reflejo lo que los usuarios decían en sus charlas de trabajo cuando se les preguntó lo mismo. En lugar de escribir correos electrónicos, blogs y discursos como se le pidió, el modelo se hizo eco de las preocupaciones y naturaleza de su conjunto de datos. Mediante el uso de un conjunto de datos fundamentalmente inadecuado, aunque uno que superficialmente parecía apropiado, el modelo realizó una función completamente diferente a la prevista.

Para evitar estos escollos y peligros, los expertos deben pasar a una visión más centrada en los datos de la IA. Esto significa aplicar también los principios de las mejores prácticas utilizados en la gestión de los riesgos en los modelos de IA a los conjuntos de datos en los que están formados. Luego tienen que tomar medidas activas para establecer las herramientas, normas y mejores prácticas para asegurar que estos datos sean exactos, representativos y libres de sesgo.

Cómo se maneja o entrena la IA es un problema social, así como tecnológica. Las organizaciones que participan en la creación o enriquecedora de datos deben traer grupos insuficientemente representados para asegurarse de que están tomando decisiones justas y que sus modelos puedan utilizarse de manera segura y responsable. Además, este enfoque ético debe arrasarse en toda la cadena de valor de los datos. Para las juntas ejecutivas esto significa entender (y mitigar) el impacto social de sus productos; para los trabajadores de conciertos que realmente están etiquetando los datos para formar sistemas de IA esto significa condiciones de trabajo más justas. La equidad de los usuarios finales de IA necesitará la regulación de las prácticas a lo largo de esta cadena.

La demanda de datos fiables y justos para fines de capacitación en IA es urgente. Los investigadores predicen que la gran tecnología se queda sin datos de alta calidad para 2026. La necesidad de datos representativos, éticos y utilizables no hará sino ser más apremiante. Los grupos de ingeniería colectiva que se extienden tanto por el mundo académico como la industria como ML Commons, un consorcio de ingeniería de IA, están trabajando para crear conjuntos de datos abiertos y diversos para su uso en las aplicaciones comerciales con los que los usuarios finales tienen más probabilidades de interactuar. Pero hay mucho más que hacer.

Así que, qué pasa con los marcos existentes de ética de IA? Los principios éticos para los sistemas de IA en el diseño, desarrollo y despliegue han sido establecidos por organizaciones como la UNESCO, pero los estudios con ingenieros de IA muestran una y otra vez que hay demasiada ambiguedad en cómo ponerlos en práctica.

Las normas globales sobre ética de la IA, como la UNESCO, 2021.Recomienda sobre la ética de la inteligencia artificial ratificada, ratificada por los 193 Estados miembros, busca consagrar un enfoque de derechos humanos de la IA basado en principios de responsabilidad, transparencia, privacidad y explicabilidad. Los expertos han tratado de empoderar a los profesionales de la IA para que auditen su labor en relación con los marcos éticos establecidos. Esto incluye la incorporación de un seguimiento ético activo junto con las normativas legales existentes, como el Reglamento General de Protección de Datos. Sin embargo, la escasa financiación en las investigaciones sugiere que el apoyo gubernamental hasta ahora no se ha extendido desde el establecimiento de marcos hasta poner en práctica. Para garantizar que la regulación de la IA pueda ir más allá del chapar o modo de un nuevo anuncio marco, el trabajo debe situarse a nivel operativo.

RELACIONADOS:

Donde las políticas de IA de Biden se quedan cortas en la protección de los trabajadores

 

Antes de la reunión del G7 de 2024, los legisladores que piensan en una regulación efectiva de IA también deberían centrarse en la alfabetización de IA. Los sistemas de IA son una presencia cada vez más grande en vidas humanas, ya sea en sistemas automatizados de recursos humanos, vehículos autoconduciendo o IA generadora como ChatGPT. Pero los usuarios realmente saben cómo funcionan estos sistemas, o cuáles podrían ser los costos ocultos detrás de ellos?

A medida que el uso de IA se generaliza, se requiere más energía para entrenar y ejecutar estos sistemas cada vez más grandes. Una investigación de la Universidad de Pensilvania sugiere que si la humanidad continúa en su actual trayectoria de uso de IA, para 2030 la electricidad global consumida por las computadoras podría aumentar entre un 8 y un 21 por ciento, exacerbando la actual crisis energética.

Un estudio incluso encontró que el entrenamiento de un modelo de lenguaje grande generó 626.155 libras de dióxido de carbono, aproximadamente la cantidad emitida de 125 vuelos de ida y vuelta entre la ciudad de Nueva York y Pekín.

Del mismo modo, cuando las personas utilizan IA, a menudo desconocen cómo llega a sus conclusiones, algunas de las cuales podrían contener inexactitudes. Cada vez más, la inteligencia artificial se está utilizando para tomar decisiones sobre si un individuo puede solicitar una hipoteca o estará cubierto por el seguro de salud, pero no está claro para el consumidor promedio cuando exactamente esto está ocurriendo y cómo el modelo está llegando a sus conclusiones.

Es tarea de los profesionales de la IA ayudar a las personas en este viaje, comunicar claramente el alcance y los beneficios de las tecnologías de IA y ser transparentes sobre sus costos. Empoderar a la gente para usar la IA con confianza ayudará a que la adopción se generalicen lo suficiente como para asegurar que los beneficios lleguen realmente a todos.

En última instancia, la Cumbre del G7 es una oportunidad una vez más para que los líderes mundiales hagan bien la regulación de la IA. Para ello, deben ir más allá del destplelo y el ruido de los grandes modelos de lenguaje para hacer frente a los sistemas de IA que ya están haciendo daño hoy en día. Esto implicará mirar más allá de los aspectos técnicos de la IA, pero también a los aspectos sociales de la misma, y cómo los seres humanos como sociedad quieren integrar la diversidad, la confianza, la seguridad y la equidad en los conjuntos de datos que utilizan.

La tarea es difícil, pero no hacerlo será un mundo en el que los sistemas de IA de este año y el próximo no cumplan las promesas de un mundo mejor.