Puede que no haya un problema más urgente en la tecnología que domesticar el salvaje oeste que es la inteligencia artificial (IA).

En la primera Cumbre de Gobernanza Tecnológica Global (GTGS) del Foro Económico Mundial, un evento dedicado al diseño responsable y la implementación de tecnologías emergentes, los asistentes dieron la alarma, y no por primera vez, sobre la IA. Específicamente, esa adopción global está superando la capacidad o, en algunos casos, la voluntad, de usarla de manera responsable y ética.

A medida que la IA ha crecido ( se espera que el gasto mundial alcance los 110.000 millones de dólares en 2024), ha sido objeto de críticas en todos los sectores e industrias por su sesgo algorítmico inherente. El tema de la IA responsable es tan omnipresente que Partnership on AI, un grupo dedicado a promover la comprensión de la IA, lanzó un rastreador de incidentes en 2020 para hacer una crónica y, con suerte, aprender de sus fallas.

La IA promete hacer que las organizaciones sean un 40% más eficientes para 2035, lo que corresponde a un asombroso valor económico de 14 billones de dólares.

foro Economico Mundial

Las cuestiones éticas, los prejuicios, la inclusión, la privacidad, la rendición de cuentas y la transparencia son problemas graves que se han reconocido desde al menos 2009 , pero los problemas persisten. Eso se debe en gran parte a la falta de diversidad en los equipos de desarrollo de IA, la falta de procesos para evaluar la tecnología antes de que se lance a la sociedad, la falta de incentivos para tomar decisiones éticas, la falta de regulación para obligar a las empresas a hacer «lo correcto» y otros problemas. .

La falta de diversidad étnica y de género en los equipos de desarrollo de IA es un gran problema. Los procesos de IA implican la recopilación, limpieza, implementación y despliegue de datos. Si las personas negras no participan en estos pasos (y a menudo no lo están), puede generar sesgos dentro de los sistemas de inteligencia artificial. Por lo tanto, el uso ético de la IA no se puede abordar por completo sin una mayor diversidad en su desarrollo. Y hay un camino por recorrer. Solo el 22% de los profesionales de la inteligencia artificial a nivel mundial son mujeres, y las personas negras están aún menos representadas. De hecho, una organización sin fines de lucro, BlackinAI , surgió en 2017 para aumentar la presencia de practicantes negros en el campo.

IA ética: ¿quién se ocupa de la tienda?

En ausencia de estándares o marcos formales, las organizaciones no reguladas se quedan solas para que se controlen a sí mismas y desarrollen y sigan sus propias pautas éticas de IA. Hay mucho en juego.

La IA promete hacer que las organizaciones sean un 40% más eficientes para 2035, lo que corresponde a un asombroso valor económico de 14 billones de dólares. Cuando se ve a través de esa lente, podemos comparar la IA con los cambios provocados por la Revolución Industrial: innovación, invención, eficiencia y productividad a gran escala. Los líderes empresariales que se reunieron virtualmente en la conferencia WEF de enero acordaron sobre su promesa y su peligro, y señalaron que la confianza es el gran inhibidor para realizar todo el potencial de la IA. Ese sentimiento fue compartido en GTGS por funcionarios del gobierno.

«Nuestro enfoque global necesita una renovación», dijo Jason Matheny, asistente adjunto del presidente para tecnología y seguridad nacional. «Todavía no tenemos principios de diseño para proporcionar garantías de seguridad en IA».

Dijo que EE. UU. Apoya los principios de inteligencia artificial propuestos por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Asociación Global de Inteligencia Artificial del WEF, pero «necesitamos formas de medir de manera confiable esas propiedades, y actualmente no tenemos esos métodos».

Traducir los principios en instrumentos de gobernanza, dijo, es la parte más desafiante.

Existen principios y marcos éticos de IA. El sector privado, la academia, el gobierno y las asociaciones profesionales han propuesto cientos de marcos y conjuntos de herramientas. Pero como señaló Harvard Business Review, estos son en su mayoría «principios mal definidos» que «no se pueden implementar claramente en la práctica». No hay mucho que el personal técnico pueda hacer, señala el artículo, para mantener claramente esta orientación de alto nivel. «Si bien los marcos de ética de la IA pueden ser buenas campañas de marketing, con demasiada frecuencia no logran evitar que la IA cause los mismos daños que deben prevenir».

Las empresas necesitan principios éticos individuales de IA

Kathy Baxter, la principal arquitecta de la práctica ética de IA de Salesforce, está de acuerdo en que necesitamos estándares formales, pero dice que es importante que las empresas también desarrollen sus propios marcos.

“Las empresas necesitan crear principios y marcos de IA que funcionen dentro de su propio conjunto de valores, visión y ciclos de vida de desarrollo de productos”, dijo Baxter. «Si tiene a alguien familiarizado con cómo desarrollarlos, es más rápido y más fácil desarrollar e implementar un conjunto de principios y marcos a medida que sabe que su empresa aceptará, en lugar de tratar de incorporar los de otra persona a su empresa».

En 2020, 14 estados de EE. UU. Introdujeron 43 artículos de legislación relacionados con la IA. Treinta y seis fallaron.

Estos marcos personalizados seguirán siendo importantes para que las empresas los mantengan y repitan incluso después del establecimiento y la puesta en funcionamiento de los estándares formales. También es clave: la participación de los principales líderes para garantizar que los principios de IA se pongan en práctica y se adopten dentro de la organización.

La importancia de las asociaciones público-privadas para garantizar un uso más responsable de la IA no puede subestimarse. Y en los EE. UU. Hay mucho trabajo por hacer. Los recientes intentos legislativos a nivel estatal para establecer pautas y regulaciones no han tenido mucha tracción. En 2020, 14 estados introdujeron 43 artículos legislativos relacionados con la IA. Treinta y seis fallaron. Hay seis pendientes. Solo uno, en Utah, aprobó, relacionado con la creación de una iniciativa de tecnología profunda en la educación superior.

Cabe señalar: la Unión Europea está avanzando en una regulación innovadora de IA para abordar los problemas mencionados anteriormente. Al mismo tiempo, China invierte mucho y aspira a convertirse en un centro global para la innovación de la IA a finales de esta década.

Mientras tanto, el estado de Washington presentó una legislación a principios de este año que habría establecido las regulaciones de IA más concretas del país. Buscaba prohibir el uso gubernamental de IA que discrimina. Los grupos de derechos civiles lo aclamaron como un paso muy bienvenido y necesario para garantizar la igualdad, mientras que los grupos de la industria advirtieron contra las consecuencias no deseadas derivadas de la extralimitación regulatoria. La legislación finalmente fracasó, criticada por vaga y mal redactada. Sin embargo, los observadores de la industria esperan que se mejore, se reescriba y se reintroduzca en una fecha posterior.

Las empresas tienen un papel clave en la educación de los gobiernos federales, estatales y locales sobre la IA, lo que puede hacer, cómo usarla y el potencial de apropiación indebida. Pueden actuar como promotores y facilitadores de la colaboración entre el gobierno, la industria, la sociedad y las ONG.

2021 puede ser un año de cambios reales

Entonces, ¿qué está pasando ahora? Los organismos de normalización como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y el Instituto Nacional de Normas y Tecnología (NIST) han formado grupos de trabajo para, entre otras cosas, definir la IA responsable. ¿Qué es el sesgo? ¿Qué se considera sesgo perjudicial? ¿Como lo mides? ¿Qué definición de equidad debería usarse en diferentes contextos? Es importante destacar que los grupos están trabajando para definir umbrales seguros para identificar qué definiciones de sesgo deben priorizarse para cada tipo y caso de uso de IA.

«Nunca podemos decir que una IA sea 100% imparcial», dijo Baxter. “Del mismo modo que no podemos decir que un tratamiento médico esté 100% libre de riesgos, en su lugar, debemos hablar de umbrales seguros”.

Las organizaciones también se están moviendo más allá de los principios y hacia la puesta en práctica de la ética en la IA. El proyecto Uso responsable de la tecnología , que forma parte de la plataforma de aprendizaje automático e inteligencia artificial de WEF, ha creado una comunidad que promueve el intercambio de herramientas y prácticas tecnológicas responsables en un formato de múltiples partes interesadas.

“Los líderes buscan técnicas probadas que puedan aplicar dentro de sus organizaciones para impulsar un comportamiento más ético en torno a la tecnología. El Foro Económico Mundial está proporcionando a estos líderes un entorno seguro para aprender unos de otros mientras avanzan en la práctica de la IA responsable ”, dijo Daniel Lim, miembro de Salesforce en el Foro Económico Mundial, al frente de este proyecto.

A lo largo de 2020, el grupo organizó una serie de talleres que brindaron a los participantes la oportunidad de aprender de los expertos de Deloitte, el Markkula Center for Applied Ethics en la Universidad de Santa Clara, Salesforce y Microsoft sobre cómo estas organizaciones pueden aplicar técnicas de innovación responsable para impulsar un comportamiento más ético. en torno a la tecnología y mitigar los riesgos en los productos de IA. En febrero, el grupo publicó el primero de una serie de documentos, un estudio de caso, que examina cómo las empresas pueden incorporar el pensamiento ético en el desarrollo de la tecnología y cómo pueden poner en práctica la ética en la tecnología.

La rendición de cuentas en la IA requerirá una asociación entre el sector público y el privado, y se están logrando avances. Por ejemplo, la resurrección de la Ley de Responsabilidad Algorítmica , que se presentó en el Congreso en 2019 pero no llegó a ninguna parte. Fue uno de los primeros proyectos de ley en abordar el sesgo de la IA a nivel federal y habría requerido que las empresas de tecnología realizaran auditorías de sesgo en sus sistemas de IA. Los tres senadores patrocinadores planean reintroducir el proyecto de ley este año en un entorno político radicalmente cambiado.

La Administración de Biden nombró a Eric Lander como el primer designado a nivel de gabinete para la Oficina de Ciencia y Tecnología, lo que generó esperanzas de que la ciencia y la tecnología se consideren tan críticas como otros temas.

Según Fast Company , “puede haber apetito por finalmente promulgar barandillas para una tecnología que es cada vez más parte de nuestros sistemas automatizados más importantes. Pero el verdadero trabajo puede consistir en aprobar una legislación que aborde algunos de los escollos de sesgo de IA más peligrosos e inmediatos y contenga los dientes para obligar a las empresas de tecnología a evitarlos «.

Más optimismo a nivel federal: la Administración Biden nombró a Eric Lander, presidente y director fundador del Instituto Broad del MIT y Harvard, genetista, biólogo molecular y matemático, como el primer designado a nivel de gabinete para la Oficina de Ciencia y Tecnología. Dada la estatura, existe una esperanza real de que los líderes estadounidenses ahora vean las cuestiones científicas y tecnológicas tan importantes como otras cuestiones.

Lo positivo, dice Baxter de Salesforce, es que «hay muchas personas que prestan atención a este problema», incluidos WEF e Equal AI , que mantienen la presión sobre la industria y los legisladores para que promulguen un cambio real.

Operacionalización de marcos de IA

Muchos aspectos de la IA aún están evolucionando, específicamente estos principios:

  • Ética: obtenga los datos de manera responsable, administre los datos y el código y reduzca el sesgo tanto como sea posible. Reconozca que eliminar todos los prejuicios, aunque loable, es un objetivo imposible que casi con seguridad está condenado al fracaso.
  • Explicabilidad: los sistemas y algoritmos deben ser transparentes y explicables a los usuarios y reguladores. ¿Por qué un algoritmo predice qué es y cómo llega a esas decisiones?
  • Seguridad: los sistemas y el software de IA deben seguir los más altos estándares de seguridad.
  • Rendición de cuentas y gobernanza: debe haber transparencia en la rendición de cuentas y la gobernanza de los marcos de IA. Un ejemplo: los resultados de las auditorías de sesgos en la IA deben hacerse públicos.

A nivel nacional, algunos gobiernos están planificando o ya han implementado estrategias de IA como parte de sus planes de crecimiento a nivel nacional. Ejemplo: Turquía ha establecido un instituto de IA para coordinar las iniciativas de IA y ha establecido un Departamento de Aplicaciones de Big Data y IA en su oficina de transformación digital para garantizar un intercambio de datos seguro y de calidad.

Mustafa Varnank, Ministro de Industria y Tecnología de Turquía, dijo en GTGS que para 2025, el empleo de IA en el país alcanzará los 50.000; el número de graduados en IA se multiplicará por diez; El 15% del gasto total en I + D se destinará a la IA, y la comercialización de la IA se apoyará a través de la contratación pública y conjuntos de datos abiertos.

“Los cambios drásticos en la tecnología siempre hacen que la gente se sienta ansiosa”, dijo Varnank. “Sin embargo, la experiencia que hemos adquirido desde la primera Revolución Industrial ha revelado hechos importantes [uno es que las naciones y las organizaciones deben adoptar nuevas tecnologías o arriesgarse a quedarse atrás] que pueden guiarnos en la Cuarta Revolución Industrial”.

Esta es una traducción realizada por EGA Futura, y este es el link a la publicación original: https://www.salesforce.com/blog/ethical-ai-progress/

Entradas recomendadas