Technology

Los grupos de ética de la IA están repitiendo uno de los errores clásicos de la sociedad

Las organizaciones y corporaciones internacionales están compitiendo para desarrollar pautas globales para el uso ético de la inteligencia artificial. Las declaraciones, los manifiestos y las recomendaciones están inundando Internet. Pero estos esfuerzos serán inútiles si no tienen en cuenta los contextos culturales y regionales en los que opera la IA.

Se ha demostrado repetidamente que los sistemas de inteligencia artificial causan problemas que afectan de manera desproporcionada a los grupos marginados mientras benefician a unos pocos privilegiados. Los esfuerzos globales de ética de la IA que se están llevando a cabo en la actualidad, de los cuales hay docenas, tienen como objetivo ayudar a todos a beneficiarse de esta tecnología y evitar que cause daños. En términos generales, lo hacen mediante la creación de pautas y principios que deben seguir los desarrolladores, financiadores y reguladores. Podrían, por ejemplo, recomendar auditorías internas de rutina o requerir protección para la información de identificación personal de los usuarios.

Creemos que estos grupos tienen buenas intenciones y están haciendo un trabajo valioso. La comunidad de la IA debería, de hecho, ponerse de acuerdo sobre un conjunto de definiciones y conceptos internacionales para la IA ética. Pero sin más representación geográfica, producirán una visión global de la ética de la IA que refleje las perspectivas de las personas en solo unas pocas regiones del mundo, particularmente en América del Norte y el noroeste de Europa.

Este trabajo no es fácil ni sencillo. “Equidad”, “privacidad” y “sesgo” significan cosas diferentes (pdf) en diferentes lugares. La gente también tiene expectativas dispares de estos conceptos dependiendo de sus propias realidades políticas, sociales y económicas. Los desafíos y riesgos que plantea la IA también difieren según la ubicación de cada uno.

Si las organizaciones que trabajan en la ética global de la IA no reconocen esto, corren el riesgo de desarrollar estándares que, en el mejor de los casos, carecen de sentido e ineficaces en todas las regiones del mundo. En el peor de los casos, estos estándares defectuosos conducirán a más sistemas y herramientas de inteligencia artificial que perpetúan los prejuicios existentes y son insensibles a las culturas locales.

En 2018, por ejemplo, Facebook tardó en actuar sobre la desinformación extendiéndose en Myanmar que en última instancia condujo a abusos contra los derechos humanos. Una evaluación (pdf) pagado por la compañía descubrió que esta supervisión se debía en parte a las pautas de la comunidad de Facebook y las políticas de moderación de contenido, que no abordaron las realidades políticas y sociales del país.

Existe una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA.

Para prevenir tales abusos, las empresas que trabajan en pautas éticas para sistemas y herramientas impulsados ​​por IA deben involucrar a los usuarios de todo el mundo para ayudar a crear estándares apropiados para gobernar estos sistemas. También deben ser conscientes de cómo se aplican sus políticas en diferentes contextos.

A pesar de los riesgos, existe una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA designados por organizaciones internacionales líderes. los grupo asesor de expertos para el proyecto AI for Children de Unicef, por ejemplo, no tiene representantes de regiones con el mayor concentración de niños y adultos jóvenes, incluidos Oriente Medio, África y Asia.

Desafortunadamente, tal como está hoy, todo el campo de la ética de la IA corre grave riesgo de limitarse a idiomas, ideas, teorías y desafíos de un puñado de regiones, principalmente América del Norte, Europa Occidental y Asia Oriental.

Esta falta de diversidad regional refleja la actual concentración de la investigación de IA (pdf): El 86% de los artículos publicados en conferencias de IA en 2018 se atribuyeron a autores de Asia oriental, América del Norte o Europa. Y menos del 10% de las referencias enumeradas en los artículos de IA publicados en estas regiones son artículos de otra región. Las patentes también están muy concentradas: el 51% de las patentes de IA publicadas en 2018 se atribuyeron a América del Norte.

Aquellos de nosotros que trabajamos en la ética de la IA haremos más daño que bien si permitimos que la falta de diversidad geográfica del campo defina nuestros propios esfuerzos. Si no tenemos cuidado, podríamos terminar codificando los sesgos históricos de la IA en pautas que deformarán la tecnología para las generaciones venideras. Debemos comenzar a priorizar las voces de los países de ingresos bajos y medianos (especialmente tmanguera en el “Global Sur”) y los de comunidades históricamente marginadas.

Los avances en la tecnología a menudo han beneficiado a Occidente al mismo tiempo que han exacerbado la desigualdad económica, la opresión política y la destrucción ambiental en otros lugares. Incluir países no occidentales en la ética de la IA es la mejor manera de evitar que se repita este patrón.


Source link

Instagram

Instagram has returned empty data. Please authorize your Instagram account in the plugin settings .

Advertisement

Advertisement Small

Flickr

  • retro commissions
  • Klaus
  • A glamazon
  • Double-clefs
  • Durchsteckschlüssel
  • Beware the wrath to come
  • Karin
  • Mona's visit
  • accord

About Author

Follow Me

Collaboratively harness market-driven processes whereas resource-leveling internal or "organic" sources. Competently formulate.

ThemeForest

Collaboratively harness market-driven processes whereas resource-leveling internal or "organic" sources. Competently formulate.