No es solo porno: los Deep Fakes y su potencial uso para manipulación política

Autor: | Posteado en Tecnología Sin comentarios

Deep Fakes

Vídeos manipulados por Inteligencia Aritificial en los que vemos a personas hacer cosas que jamás producieron en realidad. Eso son los Deep Fakes, que empezaron a saltar a los titulares a finales del año pasado por utilizarse para construir vídeos pornográficos de celebridades. Pero ¿y si el futuro de estos vídeos falseados estuviera además en la manipulación política?

Así lo afirma al menos el estudio que ha publicado esta semana el Center for a New American Security (CNAS), alguna organización bipartidista estadounidense sin ánimo de lucro que búsqueda promover temas de seguridad entre los políticos. En el documento, la organización advierte de que los Deep Fakes políticos podrían ser tan reales como para engañarnos, y todo en un plazo de 5 años.

El estudio mete a este tipo de vídeos de contenidos falsificados en la categoría de la propaganda computacional, que se aprovecha de las pocas barreras que tienen las redes sociales para “difundir contenido falso, engañoso u hiperpartidista”. Sobre los Deep Fakes en concreto, el informe dice lo siguiente:

“Los sistemas de IA son capaces de generar grabaciones de voz sintéticas realistas de cualquiera individuo para quien hay un conjunto de datos de entrenamiento de voz lo suficientemente grande. Lo idéntico pasa cada vez mas además con el vídeo. Al escribir estas líneas, el audio y el video falsificados “Deep Fakes” se ven y suenan considerablemente incorrectos, inclusive para las personas no entrenadas. Sin embargo, al ritmo que estas tecnologías están progresando, es posible que estén a menos de 5 años de poder mentir al oído y los ojos no entrenados”.

Es decir, en los Deep Fakes presentes existen ciertas limitaciones tecnológicas relacionadas con el vídeo y el audio que hacen que los vídeos puedan identificarse como falsos, inclusive por personas no expertas. Según el estudio, los avances adentro de este tipo de tecnologías harán que, en 5 años, sea inalcanzable diferenciar si un vídeo falso de este tipo es impostado u es real.

Otros avisos sobre el riesgo de los Deep Fakes

El estudio de CNAS no es el único que aprecia el uso de los Deep Fakes en política con fines manipulativos. Hany Farid, experto en tecnología forense del Dartmouth College, explicaba la semana pasada a AP News que seguramente en las próximas opciones de Estados Unidos se empezarían a ver Deep Fakes para intentar manipular a los votantes. “La tecnología, por supuesto, no conoce fronteras, por lo que espero que el impacto se propague por todo el mundo”, declaró asegurando que sería un problema global.

Hasta Marco Rubio, senador de EEUU, además se ha mostrado intranquilo y no ha descartado que las agencias extranjeras podrían aprovecharse de ellos para crear inestabilidad. Una tesis apoyada por Andrew Grotto en el idéntico artículo de AP News, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, quien ha asegurado que en 1 u 2 años va a ser realmente difícil para alguna persona diferenciar entre un vídeo cierta y 1 falso.

“Esta tecnología, creo, será insuperable para que los estados naciones la utilicen en campañas de desinformación para manipular la opinión pública, mentir a las poblaciones y socavar la confianza en vuestras instituciones”, ha asegurado Grotto.

El pasado febrero, en Oxford se reunió un conjunto de 26 investigadores de catorce instituciones académicas, de sociedad civil y relacionadas con la fábrica justamente para examinar cómo la Inteligencia Artificial puede ser desplegada con fines maliciosos. Se reunieron para discutir el tema en alguna conferencia de 2 días, y de ella salió un informe de 100 páginas en el que brevemente además se sugieren los Deep Fakes.

Sobre ellos, aseguran que su realismo es un modelo del inicio del declive de la máxima “ver para creer”, y se congratulan sobre cómo algunas plataformas sociales están comenzando a bloquear este tipo de contenido. Además, además recomendaron a desarrolladores e tecnicos de IA que se tomen en serio el doble uso que se le puede dar a su trabajo, y que esta consideración influencie en sus prioridades.

Manipulando las términos de políticos y famosos

Los Deep Fakes empezaron a hacerse populares en la red a finales del año pasado. La tecnología que los hace probables nació a partir de alguna librería de machine learning llamada TensorFlow, que había sido creada por tecnicos de Google™ y era de código abierto. Consisten en preparar a alguna IA lo suficiente como para que sea apto de ponerle a las personas que aparecen en un vídeo las caras de otros célebres realizando los mismos gestos.

A los pocos meses, apareció alguna variante llamada Deep Video Portrait, con la que se pueden manipular vídeos para hacer que las personas que aparezcan en ellos digan lo que sus creadores quieran. Un modelo lo vimos en este vídeo manipulado de Obama, en el que hacen que el ex-presidente de Estados Unidos explique justamente los peligros de los vídeos manipulados.

En este vídeo se notaba suficiente que había habido un tratamiento digital, siquiera según el informe de CNAS u el aviso de Grotto, en pocos años este tipo de tecnologías y algoritmos podrían hacerse demasiado mas eficaces a la hora de engañarnos y hacernos suponer lo que sus creadores quieran. Sobre todo porque además hay alguna variante llamada Deep Voice en la que se usa el idéntico aprendizaje profundo para que las IA puedan imitar voces.

En Genbeta | El tecnólogo que predijo las ‘fake news’ imagine que lo siguiente será un catástrofe informativo

También te recomendamos

¿En qué consta el factor de sostenibilidad? Así se calcularán las pensiones a partir de 2019

Facebook™ y su inteligencia artificial ante la delgada línea entre libertad de expresión y censura

Distopías probables: cuando el Gran Hermano seamos nosotros mismos


La noticia No es solo porno: los Deep Fakes y su potencial uso para manipulación política fue notificada originalmente en Xataka por Yúbal FM .


Xataka

Todo lo que esta escrito en este sitio web es recopilado de otros sitios oficiales, los enlaces a las paginas oficiales se presentan en cada termino de noticia y no perjudicaremos su noticia.

Noticias Relacionadas:

Agrega tu comentario