Es posible que los deepfakes no hayan cambiado las elecciones estadounidenses de 2020, pero su día está llegando


Muchos proyectaron que deepfake Los videos jugarían un papel principal en las elecciones de 2020, con la perspectiva de interferencia extranjera y campañas de desinformación que se avecinan en el período previo al día de las elecciones. Sin embargo, si ha habido una sorpresa en las tácticas de campaña de este ciclo, es que estos videos generados por IA han jugado un papel muy menor, poco más que un cameo (hasta ahora, al menos).

Los videos deepfake son mucho más convincentes hoy en día debido a los grandes avances en el campo de Redes generativas antagónicas. Estos son videos generados que están manipulados para alterar la realidad, mostrando eventos o representando discursos que nunca sucedieron. Debido a que las personas tienden a otorgar credibilidad sustancial a lo que ven y escuchan, los deepfakes representan un peligro muy real.

Las preocupaciones sobre los deepfakes que influyen en las elecciones han estado surgiendo desde que la tecnología apareció por primera vez hace varios años, sin embargo, hubo pocos casos de deepfakes en las elecciones estadounidenses de 2020 o en las elecciones a nivel mundial. Un ejemplo es un deepfake que muestra al ex vicepresidente Joe Biden sacando la lengua, que fue retuiteado por el presidente. En otro, el primer ministro de Bélgica apareció en un video en línea que decía que la pandemia de COVID-19 estaba relacionada con la “explotación y destrucción por parte de los humanos de nuestro entorno natural”. Excepto que ella no dijo esto, fue un deepfake.

Estas han sido las excepciones. Hasta ahora, los deepfakes políticos han sido mayormente satírico y entendido como falso. Algunos incluso se han utilizado como parte de un campaña de servicio público para expresar la importancia de salvar la democracia.

Creado para representarnos, un grupo anticorrupción y buen gobierno sin fines de lucro y no partidista, por una agencia de publicidad que utiliza tecnología deepfake.

La razón por la que no ha habido más deepfakes malévolos por motivos políticos diseñados para avivar la opresión, la división y la violencia es una cuestión de conjetura. Una razón podría ser la prohibición que algunas plataformas de redes sociales han impuesto a los medios que han sido manipulados o fabricados y se hacen pasar por reales. Dicho esto, puede ser difícil detectar un deepfake bien hecho y no se detectan todos. Muchas empresas están desarrollando herramientas de inteligencia artificial para identificar estos deepfakes, pero aún tienen que establecer un método infalible. Uno discutido recientemente herramienta de detección afirma una precisión del 90% al analizar las sutiles diferencias en el color de la piel causadas por los latidos del corazón humano.

Al mismo tiempo, quienes crean deepfakes aprenden de los esfuerzos de detección publicados y continúan mejorando sus capacidades para crear videos de apariencia más realista. Y también están proliferando herramientas más avanzadas para crear deepfakes. Por ejemplo, desarrollos recientes diseñado para mejorar las videoconferencias podría utilizarse para crear deepfakes más realistas y evitar la detección.

Otra razón por la que no hemos visto más deepfakes dirigidos a las elecciones es porque medios tradicionales de falsificación parecen funcionar lo suficientemente bien a través de la edición selectiva. No es difícil encontrar un videoclip real que, por ejemplo, muestre a un candidato diciendo que subirá los impuestos. Cortar esos fragmentos de sonido del contexto más amplio del clip original y reutilizarlos para impulsar una agenda es una práctica común, aunque poco ética, de persuasión política.

También puede ser que se invierta más energía en proyectos que produzcan beneficios comerciales más inmediatos, como la creación de desnudos. imagenes de mujeres según imágenes tomadas de las redes sociales.

Algunos ven un al revés a deepfakes, con usos positivos que eventualmente reducen el estigma asociado con la tecnología. A veces, estos usos positivos no se denominan deepfakes, sino “vídeos sintéticos”, aunque la tecnología subyacente es la misma. Ya hay sintético videos de capacitacion corporativa. Y algunas personas Reclamación Los videos sintéticos podrían usarse para mejorar la educación recreando eventos y personalidades históricas, devolviendo a la vida personajes históricos para crear un aula más atractiva e interactiva. Y están los solo parausos divertidos, como convertir una imagen de Elon Musk en un zombi.

¿Siguen siendo un problema los deepfakes?

En junio de este año, casi 50.000 deepfakes se han detectado en línea, un aumento de más del 330% en el transcurso de un año. Los peligros son reales. Los videos falsos podrían representar falsamente a una persona inocente participando en una actividad criminal, mostrar falsamente a soldados cometiendo atrocidades o mostrar a líderes mundiales declarando la guerra a otro país, lo que podría desencadenar una respuesta militar muy real.

Hablando en una conferencia virtual reciente de Cybertech, el exjefe de comando cibernético de EE. UU., Mayor-General. (retirado) Brett Williams dijo, “la inteligencia artificial es real. Ya lo utilizan los atacantes. Cuando aprendan a hacer deepfakes, diría que esto es potencialmente una amenaza existencial “.

La implicación es que aquellos que usarían deepfakes como parte de un ataque en línea aún no han dominado la tecnología, o al menos no han dominado la tecnología, o al menos no saben cómo evitar las migas de pan que los llevarían de regreso al perpetrador. Quizás estas sean también las razones más convincentes (falta de tecnología madura y temor a que se descubra la fuente) por las que no hemos visto deepfakes más graves en las campañas políticas actuales.

UNA informe reciente del Center for Security and Emerging Technology se hace eco de esta observación. Entre los hallazgos clave del informe, “factores como la necesidad de evitar la atribución, el tiempo necesario para entrenar un modelo de aprendizaje automático y la disponibilidad de datos limitarán la forma en que los actores sofisticados utilizan deepfakes personalizados en la práctica”. El informe concluye que los deepfakes personalizados producidos por actores técnicamente sofisticados representarán una amenaza mayor en el futuro.

Incluso si los deepfakes no han jugado un papel importante en esta elección, es probable que solo sea cuestión de tiempo antes de que impacten en las elecciones, subviertan la democracia y tal vez conduzcan a enfrentamientos militares.

Gary Grossman es el vicepresidente senior de práctica tecnológica en Edelman y líder mundial del Centro de excelencia de inteligencia artificial de Edelman.


Cómo las startups están escalando la comunicación:

La pandemia está haciendo que las nuevas empresas analicen de cerca el aumento de sus soluciones de comunicación. Aprender cómo


Latest articles

MiB: Cómo replicar fondos de cobertura en un ETF

Cuando comienza su carrera en fondos de cobertura en el Grupo Baupost de Seth Klarman, es fácil ver cómo todo lo...

Los Airbnbs más geniales de Austin, Texas • The Blonde Abroad

¿Listo para explorar la ciudad más moderna de Texas? Orgulloso de ser una de las ciudades más extrañas de los EE. UU....
31.5k Followers
Follow

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

Translate »