AI Weekly: Palantir, Twitter y creación de confianza pública en el proceso de diseño de AI


El ciclo de noticias de esta semana pareció agarrar a la gente por el cuello y sacudirla violentamente. El miércoles, Palantir se hizo pública. La empresa secreta con vínculos con el ejército, las agencias de espionaje y el ICE es dependiente de contratos gubernamentales y la intención de acumular más datos y contratos confidenciales en los EE. UU. y en el extranjero.

Siguiendo un bombardeo de vigilancia como servicio la semana pasada, Amazon presentó Amazon One, que permite escaneos biométricos sin contacto de las palmas de las personas para Amazon o clientes de terceros. La compañía afirma que los escaneos de palma son menos invasivos que otras formas de identificadores biométricos como el reconocimiento facial.

El jueves por la tarde, en el breve receso entre un debate presidencial fuera de control y la revelación de que el presidente y su esposa habían contraído el COVID-19, Twitter compartió más detalles sobre cómo se creó. IA que parece preferir caras blancas a caras negras. en un entrada en el blog, El director de tecnología de Twitter, Parag Agrawal, y el director de diseño, Dantley Davis, calificaron de “un descuido” la falta de publicación del análisis de sesgos al mismo tiempo que la implementación del algoritmo hace años. Los ejecutivos de Twitter compartieron detalles adicionales sobre una evaluación de sesgos que tuvo lugar en 2017, y Twitter dice que está trabajando para alejarse del uso de algoritmos de prominencia. Cuando el problema recibió atención inicialmente, Davis dijo que Twitter consideraría deshacerse del recorte de imágenes por completo.

Todavía hay preguntas sin respuesta sobre cómo Twitter usó su algoritmo de prominencia y, de alguna manera, la publicación del blog compartida el jueves por la noche plantea más preguntas de las que responde. La publicación del blog afirma simultáneamente que ninguna IA puede estar completamente libre de prejuicios y que el análisis de Twitter de su algoritmo de relevancia no mostró prejuicios raciales o de género. Un ingeniero de Twitter dijo que se encontró alguna evidencia de sesgo durante la evaluación inicial.

Twitter tampoco comparte ninguno de los resultados de una evaluación de 2017 sobre prejuicios raciales y de género. En cambio, un portavoz de Twitter le dijo a VentureBeat que se darán a conocer más detalles en las próximas semanas, la misma respuesta que tuvo la compañía cuando el aparente sesgo salió a la luz por primera vez.

Twitter no parece tener una política oficial para evaluar el sesgo de los algoritmos antes de la implementación, algo grupos de derechos civiles instaron a Facebook a desarrollar este verano. No está claro si el episodio del algoritmo de relevancia conducirá a un cambio duradero en la política de Twitter, pero lo que empeora el escándalo es que muchas personas no sabían que la inteligencia artificial estaba en uso.

Todo esto nos lleva a otro evento que ocurrió a principios de esta semana: las ciudades de Amsterdam y Helsinki implementaron registros de algoritmos. Ambas ciudades solo tienen algunos algoritmos enumerados hasta ahora y planean hacer más cambios, pero el registro enumera los conjuntos de datos utilizados para entrenar un algoritmo, cómo se usan los modelos y cómo se evaluaron en busca de sesgo o riesgo. El objetivo, dijo un funcionario de la ciudad de Helsinki, era promover la transparencia para que el público pueda confiar en los resultados de los algoritmos utilizados por los gobiernos de las ciudades. Si tienen preguntas o inquietudes, el registro enumera el nombre y la información de contacto del departamento de la ciudad y el funcionario responsable de la implementación del algoritmo.

Cuando da un paso atrás y observa cómo se comportan las empresas posicionadas para beneficiarse de la vigilancia y las plataformas de redes sociales, un elemento común es la falta de transparencia. Una solución potencialmente útil podría ser seguir el ejemplo de Ámsterdam y Helsinki y crear registros de algoritmos para que los usuarios sepan cuándo se está utilizando la inteligencia artificial. Para los consumidores, esto podría ayudarlos a comprender las formas en que las plataformas de redes sociales personalizan el contenido e influyen en lo que ven. Para los ciudadanos, puede ayudar a las personas a comprender cuándo una agencia gubernamental está tomando decisiones utilizando la inteligencia artificial, lo que resulta útil en un momento en el que más personas parecen estar preparadas para hacerlo.

Si las empresas tuvieran que cumplir con una regulación que les obligaba a registrar algoritmos, los investigadores y el público podrían haber conocido el algoritmo de Twitter sin la necesidad de realizar sus propias pruebas. Fue alentador que el algoritmo de prominencia inspiró a muchas personas a realizar sus propias pruebas, y parece saludable que los usuarios evalúen el sesgo por sí mismos, pero no tenía por qué ser tan difícil. Si bien los registros de IA podrían aumentar el escrutinio, ese escrutinio podría conducir en última instancia a una IA más sólida y justa en el mundo, asegurando que la persona promedio pueda responsabilizar a las empresas y los gobiernos por los algoritmos que utilizan.

Para obtener cobertura de IA, envíe sugerencias de noticias a Khari Johnson y Kyle Wiggers y editor de IA Seth Colaner – y asegúrese de suscríbete al boletín semanal de AI y marcar nuestro Canal AI.

Gracias por leer,

Khari Johnson

Redactor senior de AI



Latest articles

¿Salario mínimo federal de $ 15?

Es un caso rotundo que duplicar el salario mínimo federal (ha sido de $ 7.25 desde 2009) conduciría a disminuciones significativas en las...

Las 10 plantas de interior más resistentes ¡Puedes cultivar en interiores!

Las plantas de interior más resistentes que cualquiera puede cultivar TLos últimos meses han sido tan locos, especialmente con la crisis del...

Rihanna atrapada ‘borracha’ y de fiesta en una fiesta ilegal sin máscara en Nueva York (Fotos)

Rihanna y su novio A $ AP Rocky están siendo acusados ​​de ser imprudentes, luego de que fotos filtradas los mostraran...

Semana Palíndromo en marcha: el tramo de 10 fechas lee lo mismo hacia atrás y hacia adelante

El día de la inauguración fue la primera de 10 fechas palíndromas consecutivas, fechas que se leen igual hacia adelante y hacia atrás.  
31.5k Followers
Follow

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

Translate »