Cómo se utilizan los algoritmos y los datos para influir en usted


Logotipo de código abierto

Cuando le digo a las personas que escribo sobre la privacidad de los datos, generalmente obtengo algo parecido a estas dos respuestas:

“¿Facebook me está escuchando? Recibí un anuncio de comida para loros, y la única explicación posible es que Facebook escuchó a mi amigo contarme sobre su nuevo loro mascota, porque mencionó esa marca exacta, de la que nunca había oído hablar antes “.

(No, Facebook no es.)

Aquí está el otro:

“Estoy seguro de que eso es importante para alguien, pero no tengo nada que ocultar. ¿Por qué debería preocuparme por la privacidad de los datos? “

Se recopila una tonelada de datos personales y granulares sobre nosotros todos los días a través de nuestros teléfonos, computadoras, automóviles, hogares, televisores, altavoces inteligentes, cualquier cosa que esté conectada a Internet, básicamente, así como cosas que no lo son, como compras con tarjeta de crédito e incluso la información de tu Licencia de conducir. No tenemos mucho control sobre gran parte de esta recopilación de datos y, a menudo, no nos damos cuenta de cuándo o cómo se usa. Eso incluye cómo se puede utilizar para influir en nosotros.

Tal vez eso tome la forma de un anuncio para comprar comida para loros. Pero también puede tomar la forma de una recomendación para ver un video de YouTube sobre cómo los líderes mundiales globalistas y las estrellas de Hollywood están dirigiendo una red de pedófilos que solo el presidente Trump puede detener.

“Las plataformas de Internet como YouTube usan IA que brindan recomendaciones personalizadas basadas en miles de puntos de datos que recopilan sobre nosotros”, dijo a Recode Brandi Geurkink, activista senior de la Fundación Mozilla que está investigando el motor de recomendaciones de YouTube.

Entre esos puntos de datos se encuentra su comportamiento en los otros productos de Google, la empresa matriz de YouTube, como sus hábitos de navegación en Chrome. Y es tu comportamiento en el propio YouTube: dónde te desplazas hacia abajo en una página, en qué videos haces clic, qué hay en esos videos, cuánto ves. Todo eso se registra y se usa para informarle recomendaciones cada vez más personalizadas, que se pueden ofrecer a través de la reproducción automática (activada de manera predeterminada) antes de que pueda hacer clic.

Añadió: “Esta IA está optimizada para mantenerte en la plataforma para que sigas viendo anuncios y YouTube siga ganando dinero. No está diseñado para optimizar su bienestar o ‘satisfacción’, a pesar de lo que afirma YouTube. Como resultado, la investigación ha demostrado cómo este sistema puede brindar a las personas su propia experiencia privada y adictiva que puede llenarse fácilmente de teorías de conspiración, desinformación sobre la salud y desinformación política ”.

El daño en el mundo real que esto puede causar quedó bastante claro el 6 de enero, cuando cientos de personas irrumpieron en el edificio del Capitolio para tratar de anular la certificación de una elección que estaban convencidas, sin fundamento, de que Trump ganó. Este engaño masivo fue alimentado por sitios web que, la investigación ha demostrado, promover y amplificar las teorías de la conspiración y la desinformación electoral.

“Los sistemas algorítmicos de recomendación y amplificación que emplean las plataformas difunden contenido que evoca lo que es verdad”, dijo la representante Anna Eshoo (D-CA) en un declaración reciente. “El terrible daño causado a nuestra democracia el 6 de enero demostró cómo estas plataformas de redes sociales jugaron un papel en la radicalización y envalentonamiento de los terroristas para atacar nuestro Capitolio. Estas empresas estadounidenses deben repensar fundamentalmente los sistemas algorítmicos que están en desacuerdo con la democracia “.

Durante años, Facebook, Twitter, YouTube y otras plataformas han enviado contenido a sus usuarios que sus algoritmos les dicen que los usuarios querrán ver, según los datos que tienen sobre sus usuarios. los videos que miras, las publicaciones de Facebook y las personas que interactuar con, la tweets a los que respondes, su ubicación: estos ayudan a crear un perfil de usted, que los algoritmos de estas plataformas luego utilizan para ofrecer aún más videos, publicaciones y tweets con los que interactuar, canales a los que suscribirse, grupos a los que unirse y temas a seguir. No estás buscando ese contenido; te está buscando.

Esto es bueno para los usuarios cuando les ayuda a encontrar contenido inofensivo en el que ya están interesados, y para las plataformas, porque esos usuarios pasan más tiempo en ellos. No es bueno para los usuarios que se radicalizan con contenido dañino, pero sigue siendo bueno para las plataformas porque esos usuarios pasan más tiempo en ellos. Es su modelo de negocio, ha sido muy rentable y no tienen ningún deseo de cambiarlo, ni están obligados a hacerlo.

“Las plataformas digitales no deben ser foros para sembrar el caos y difundir información errónea”, dijo la senadora Amy Klobuchar (D-MN), crítico frecuente de Big Tech, dijo a Recode. “Los estudios han demostrado cómo los algoritmos de las redes sociales empujan a los usuarios hacia el contenido polarizado, lo que permite a las empresas capitalizar la división. Si los datos personales se utilizan para promover la división, los consumidores tienen derecho a saber “.

Pero ese derecho no es legal. No existe una ley federal de privacidad de datos, y las plataformas son notoriamente opacas sobre cómo funcionan sus algoritmos de recomendación, incluso cuando se han vuelto cada vez más transparentes sobre los datos de los usuarios que recopilan y les han dado a los usuarios cierto control sobre ellos. Pero estas empresas también intentos de lucha para dejar de rastrear cuando no está en sus propios términos, o no he actuado en su propias políticas prohibiéndolo.

A lo largo de los años, los legisladores han presentado proyectos de ley que abordan los algoritmos de recomendación, ninguno de los cuales ha ido a ninguna parte. El representante Louis Gohmert (R-TX) intentó eliminar las protecciones de la Sección 230 de las empresas de redes sociales que usaban algoritmos para recomendar (o suprimir) contenido con su “Ley de disuasión de algoritmos sesgados. ” Un grupo bipartidista de senadores propuso el “Ley de transparencia de burbujas de filtro, “Lo que obligaría a las plataformas a dar a los usuarios” la opción de interactuar con una plataforma sin ser manipulados por algoritmos impulsados ​​por datos específicos del usuario “. Mientras tanto, los representantes Eshoo y Tom Malinowski (D-NJ) planear reintroducir su “Ley de Protección de los Estadounidenses de Algoritmos Peligrosos”, que eliminaría las protecciones de la Sección 230 de las plataformas que amplifican el contenido extremista o de odio.

Por su parte, las plataformas tener hecho esfuerzos para frenar algunos contenidos extremistas y la desinformación. Pero estos solo llegaron después de años de permitirlo en gran parte sin control, y beneficiándose de ello, y con resultados mixtos. Estas medidas también son reactivas y limitadas; no hacen nada para detener o frenar el desarrollo de teorías de conspiración o campañas de desinformación. Los algoritmos aparentemente no son tan buenos para erradicar contenido dañino como para difundirlo. (Facebook y YouTube no respondieron a la solicitud de comentarios).

Es prácticamente imposible evitar que las empresas recopilen datos sobre usted, incluso si no utiliza sus servicios, tienen sus caminos. Pero al menos puedes limitar cómo los algoritmos lo usan en tu contra. Gorjeo y Facebook te ofrecen opciones cronológicas inversas, en las que los tweets y las publicaciones de las personas a las que sigues aparecen en el orden en que se agregan, en lugar de dar prioridad al contenido y a las personas que creen que te interesan más. YouTube tiene un “modo de incógnito” que dice no usaré su historial de búsquedas y reproducciones para recomendar videos. Tambien hay navegadores más privados para limitar la recopilación de datos y evitar que los sitios lo vinculen con sus visitas o datos anteriores. O simplemente puede dejar de usar esos servicios por completo.

E, incluso en los algoritmos, hay agencia. El hecho de que una teoría de la conspiración o información errónea llegue a su línea de tiempo o videos sugeridos no significa que tenga que leer o mirar, o que los creerá automática e inmediatamente si lo hace. Las conspiraciones pueden ser mucho más fáciles de encontrar (incluso cuando no las estaba buscando); todavía eliges si seguir o no el camino que te muestran. Pero ese camino no siempre es obvio. Puedes pensar que QAnon es estúpido, pero compartirás #SaveTheChildren contenido. Puede que no crea en QAnon, pero votará por un miembro del Congreso que hace. Puede que no te caigas por la madriguera del conejo, pero tu amigos y familiares lo harán.

O tal vez un algoritmo recomendará algo incorrecto cuando esté más desesperado y susceptible. ¿Nunca jamás serás tan vulnerable? Facebook y YouTube conocen la respuesta a eso mejor que tú, y están dispuestos y son capaces de explotarla. Puede que tengas más que ocultar de lo que crees.

Código abierto es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y producido por nuestros periodistas.



Latest articles

Los cambios en el juego de OlliOlli World hacen que se sienta fresco

Como fanático acérrimo de los juegos de skate, siempre estoy emocionado cuando aparece una nueva serie. Cuándo OlliOlli lanzado en PlayStation Vita...

Peruanos desaprueban los desafíos electorales de Fujimori (23 de junio de 2021)

El tribunal electoral de Perú iniciará hoy las audiencias sobre los votos presidenciales impugnados. (La República) Pero el consenso es que Pedro...

Una decisión decepcionante de la Corte Suprema dificulta la sindicalización de los trabajadores agrícolas

Publicado el 23 de junio de 2021 a las 3:17 pm por Daniel Costa Una decisión decepcionante de la Corte Suprema dificulta la sindicalización de...
49.6k Followers
Follow

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

Translate »