• La inteligencia artificial ha estado impulsando muchas de las aplicaciones que utilizamos a diario, pero la tecnología ahora está entrando en una fase nueva y más sofisticada.
  • Mientras lo hace, necesitamos nuevas barreras para garantizar que se desarrolle de una manera segura y justa.
  • La mejor manera de lograrlo es limitar la influencia de los prejuicios humanos en la tecnología, lo que requerirá una gran cantidad de trabajo e inversión.

Por Diana Wynn, Gerente sénior de práctica de IA responsable de Amazon Web Services

Alguna forma de inteligencia artificial (IA) ha estado impulsando muchas de las aplicaciones que utilizamos todos los días.

Por nombrar algunos, la IA ha estado trabajando en segundo plano para ofrecer música y recomendaciones de compras y ayudarnos a escribir mensajes de texto. Ahora entramos en la siguiente evolución, más sofisticada, de la IA, donde está pasando a primer plano gracias a su capacidad de generar respuestas abiertas.

En términos generales, la tecnología ha podido transformar nuestras vidas para mejor. Pero algunas innovaciones requieren barreras de seguridad y mejores prácticas para mitigar el riesgo o daño a las personas, las comunidades y la sociedad, e incluso entonces, puede haber consecuencias no deseadas. La IA no es una excepción.

Si bien hemos estado desarrollando e investigando soluciones de IA responsable para los servicios tradicionales de IA y aprendizaje automático (ML), esta nueva era de IA generativa plantea desafíos únicos. Y debido a la rapidez con la que está evolucionando la IA generativa, existe un potencial más significativo de riesgo y resultados no deseados a menos que tomemos medidas intencionales y proactivas para minimizar esos riesgos.

Un paso fundamental es promover la equidad en la IA generativa. Una de las formas de hacerlo es abordar el sesgo que se puede encontrar en los datos utilizados, en el algoritmo y en las personas involucradas en su diseño, desarrollo e implementación.

Si bien las soluciones técnicas son fundamentales para mitigar el sesgo en la IA, debemos pensar en esto de manera integral, invirtiendo en enfoques que involucren también a las personas y los procesos.

No se puede construir IA de manera responsable sin la inclusión de voces diversas

Al final del día, son las personas quienes serán los administradores de una IA responsable. Es por eso que una de las prioridades es la inclusión: la consideración intencional de las perspectivas, voces y características de todas las partes interesadas o consumidores que pueden verse afectados o utilizar el producto de IA.

Idealmente, se deberían incorporar diversas perspectivas en el ciclo de vida del producto de IA desde el principio. Pero la diversidad en tecnología, inteligencia artificial y ciencia de datos sigue siendo un desafío. Las mujeres representan sólo el 26% de los puestos de datos e inteligencia artificial en la fuerza laboral; sólo el 4,2% de los científicos de datos son negros o afroamericanos, y el 6,9% son hispanos o latinos . Por lo tanto, debemos emplear otras formas de incorporar la inclusión para centrarnos en el usuario final.

Una forma creativa de hacerlo es aprovechar los grupos de recursos de empleados de una empresa en varias etapas del ciclo de vida del producto. Los miembros de estos grupos suelen estar dispuestos a compartir sus perspectivas, sabiendo que pueden influir positivamente en el funcionamiento del producto y, en última instancia, beneficiar a su comunidad y a sus clientes.

Al mismo tiempo, debemos aumentar e invertir en la diversidad en el campo mediante la construcción de un canal más temprano. Por eso es primordial democratizar la educación en IA y hacerla accesible a los grupos subrepresentados. Por ejemplo, AWS ofrece programas como la beca AI y ML y un plan de estudios educativo gratuito sobre IA para colegios y universidades históricamente negros (HBCU), instituciones al servicio de minorías (MSI) y colegios comunitarios.

Finalmente, como seres humanos, todos tenemos sesgos implícitos y es importante comprender cómo impactan los procesos de diseño y toma de decisiones, la recopilación de datos, la ingeniería de características, la evaluación y las pruebas de modelos. La capacitación debe diseñarse para ayudar a crear conciencia sobre la existencia y el impacto del sesgo en los sistemas de IA entre los desarrolladores, científicos de datos y otras partes interesadas y brindarles formas de reducirlo.

No planificar es planificar el fracaso

Un área de enfoque del proceso es la necesidad de un plan organizacional integral para ayudar a las empresas a analizar, probar y responder de manera proactiva a problemas como posibles sesgos si surgen al implementar sistemas de IA generativa.

Como parte del plan, las empresas querrían responder preguntas que incluyen: ¿quiénes son las personas de los clientes clave y los más afectados? ¿Nuestros datos son representativos de esas partes interesadas? ¿Cuáles son los riesgos y amenazas potenciales? ¿Cuáles son las opciones de reversión y recuperación? ¿Qué circuitos de retroalimentación se emplearán? ¿Qué es el plan de comunicaciones?

Al instituir un modelo operativo de IA con personas, procesos y soluciones técnicas que ayuden a anticipar y gestionar los riesgos de manera eficaz, las empresas pueden reducir la probabilidad y el impacto de riesgos y consecuencias no deseados, demostrar un compromiso con la resiliencia y la mejora, y gestionar su reputación, lo que lleva a mejora de la confianza del cliente.

La incertidumbre exige una mayor inversión

Debido a que la IA generativa todavía está evolucionando y algunos de sus modelos subyacentes son muy complejos, hay muchas cosas que todavía no sabemos sobre cómo produce el contenido que genera. Por eso no está claro cuándo podremos erradicar completamente los prejuicios (si es que alguna vez lo logramos). Pero lo que está claro es la necesidad de una mayor inversión en esta área a medida que más empresas y organizaciones experimentan con la IA generativa para transformar sus negocios e industrias. Además de las ideas centradas en las personas y en los procesos descritas anteriormente, también necesitamos colaboración, investigación y participación continua de legisladores, investigadores y expertos por igual, incluso más allá de las empresas pioneras en esta tecnología.

No hay duda de que la incertidumbre puede dar miedo, pero no podemos dejar que el miedo nos paralice. En todo caso, debería impulsarnos a tener un renovado sentido de urgencia para obtener una comprensión más profunda de la IA generativa, abogar por el desarrollo de barreras de seguridad necesarias y ser intencionales a la hora de emplear las mejores prácticas responsables de IA.

Y realmente creo que podríamos aprovechar esta tecnología emergente para siempre. De hecho, la IA y el ML han desempeñado un papel a la hora de abordar algunos de los problemas más apremiantes del mundo, como el hambre y la pobreza. Por ejemplo, el Instituto Internacional de Investigación del Arroz (IRRI) utilizó métodos avanzados de aprendizaje automático para permitir una comprensión rápida de los datos genómicos y, a cambio, puede desarrollar arroz que sea más tolerante al cambio climático. Pero aprovechar la IA generativa para siempre significa que no podemos quedarnos al margen. Todos tenemos un papel que desempeñar en el camino hacia la IA responsable, independientemente del trabajo o industria en la que estemos.

Fuente: World Economic Forum (WEF)