Deepfake: «Si lo veo, tampoco lo creo» (04/12/2019 por Francisco Pascual Traver Viciano)

Introducción

Durante los últimos meses se han estado haciendo presente en las redes sociales unos inquietantes vídeos en los que, mediante una técnica digital se cambia por completo el rosto de una persona por el de otra o se hace que gesticule de una manera diferente a la que lo hace realmente. Es lo que se conoce como deepfake.

Hasta el momento en el que escribo esta introducción y comienzo con ellas este trabajo para la asignatura de marketing y comunicación empresarial, esas cuatro primeras líneas son todo lo que conozco del deepfake. He querido enfocar este proyecto de Comunicación y hombre en esta dirección más allá de por una cuestión didáctica, por una inquietud personal, ya que, como futuro periodista, las fuentes son fundamentales en la labor que posiblemente acabe desempeñando y esta técnica podría provocar una oleada masiva de desinformación y pérdida de credibilidad. Tanto es así que estos últimos meses el deepfake y los riesgos que supone han estado apareciendo en los periódicos nacionales e internacionales y grandes empresas como Facebook, Amazon o Microsoft se han unido para luchar contra este problema global de seguridad y desinformación.

En cuanto a la relación del tema de este trabajo con el proyecto Comunicación y hombre, para realizar un deepfake creíble se utilizan fotografías y vídeos acumulados y se emplean como datos, por lo que está claramente ligado al tema de la DATA comunicación. Por otra parte, esta técnica afecta a la sociedad de una manera muy significativa, en tanto y cuanto ataca la dignidad de los afectados, acaba con la libertad de los consumidores y fulmina la credibilidad de las fuentes.

Los medios tecnológicos evolucionan a una velocidad vertiginosa y posiblemente antes de lo que creemos los deepfakes sean imposibles de distinguir de la realidad. Si eso llegara a ocurrir (y ocurrirá) se produciría un problema global de desinformación y desconfianza. Y es que ya se han dado casos de personajes públicos tan relevantes como Donald Trump o Mark Zuckerberg que se han visto involucrados en polémicas, afectados por el realismo de los deepfakes.

Hoy en día el consumo masivo y la rapidez de las redes sociales, unida al morbo de los usuarios de estas, hacen que estos vídeos e imágenes alteradas lleguen a millones en cuestión de minutos. Y gran parte de estos usuarios, me atrevería a decir que la mayoría de ellos (la nuestra es una generación marcada por la pereza), no se plantean la posibilidad de que se trate de un vídeo alterado y mucho menos el hecho de comprobarlo. Ahí desgraciadamente reside “el problema”: en la confianza de la gente en los medios de comunicación. Digo desgraciadamente porque como futuro periodista me gustaría que la gente pudiera tener la garantía de que la información que recibe a través de cualquier medio es veraz, pero esto no ocurre ya que muchos aprovecharían (y aprovechan en la actualidad) esa confianza para beneficio propio o con intenciones negativas. Por desgracia, esos medios son la única forma que tienen muchos de conocer el mundo que les rodea, y si esa ventana que les permite asomarse a él es distorsionada, las decisiones que tomen fundamentadas en la información que perciben a través de ella (por ejemplo, a la hora de votar) no habrán sido tomadas con libertad plena. Tal es la magnitud de los riesgos que supone este tema que algunos de los diarios más reconocidos a nivel global como “The Economist” o “The Guardian” han llegado a plantear que el deepfake podría incluso debilitar la democracia como forma de Gobierno, ya que, alegan, “la confianza es uno de los pilares fundamentales de esta”.

 

 

 

 

 

 

 

 

 

 

 

Qué es el deepfake

Deepfake desde un punto de visto etimológico es un acrónimo inglés formado por las palabras Deep (profundo) y fake (falso). Podría traducirse, de alguna manera, como profundamente-falso.
Se trata de una técnica digital de inteligencia artificial que permite editar piezas multimedia (normalmente vídeos) de personas empleando algoritmos de aprendizaje no supervisados (conocidos como RGAs, Red Generativa Antagónica) y videos, imágenes o audios ya existentes. A través de estos métodos, se consigue alterar, de manera creíble, la apariencia física de las personas que en ellos aparecen, haciéndolos parecer otros y haciendo creer al consumidor de la pieza resultante que algo que no ha sucedido sí ha ocurrido.

 

El nombre de esta manipulación tiene su origen en 2017, cuando un usuario del portal Reddit llamado “Deepfake” compartió una serie de vídeos que había creado insertando la cara de celebridades en cuerpos que no eran los suyos a través de un programa informático de Inteligencia Artificial que él mismo había inventado. La mayoría de dicha colección de vídeos eran escenas con Nicolas Cage como protagonista de películas en las que nunca había participado. Estas no tardaron en hacerse virales y, de esta manera, el nombre del creador pasó a ser el de la creación.

 

 

 

 

 

 

 

 

 

 

En dos años, esta técnica se ha ido mejorando y perfeccionando; y sigue haciéndolo en estos momentos. Tanto es así que demás de cambiar caras, hoy se puede manipular también otro tipo de contenido además de las imágenes, como pueden ser las grabaciones de audio. Podemos concluir, por tanto, que el deepfake es la manipulación o creación de una pieza multimedia con el objetivo de cambiar la identidad del protagonista o protagonistas de dicha pieza por la de otro(s) o alterando sus acciones, editando por medio de la inteligencia artificial elementos como su rostro, sus gestos o su voz.

 

Deepfake de audio

Esta clase de deepfake está pasando más desapercibido que los vídeos a pesar de ser igualmente peligroso a la hora de destruir carreras y reputaciones.
Los deepfake de audio se pueden clasificar en dos categorías: los de modulación (que parten de una grabación de voz para modificarla o hacer que suene como la de otro) y la síntesis (que consiste en la aplicación de una voz predeterminada y artificial a un texto).
En cuanto a los de modulación, en menos tiempo del que se cree, la Inteligencia Artificial será capaz de, a partir de un database de archivos de audio con la voz de una persona, crear una voz sintética idéntica a la del individuo en cuestión. De hecho, Facebook AI Research (la división de Facebook encargada de la investigación en el campo de la Inteligencia Artificial) ha creado ya un software de inteligencia artificial capaz de tomar una canción y aplicarle el estilo musical de un cantante famoso (cambiándole la voz). Para cambiar de una voz a otra, desde Facebook aseguran que este software solo necesita escuchar audio de ambas voces durante un periodo de tiempo de entre 5 y 30 minutos.
En cuanto a los de síntesis, son más fáciles de identificar, debido a la dificultad que le supone a la Inteligencia Artificial el captar las emociones en la voz. Esta dificultad es la responsable de que aún no se haya conseguido que las voces sintéticas tengan una cadencia y una entonación humanas cien por cien creíbles. No obstante, algunos investigadores de Google han avanzado en la creación de voces de este tipo, cada vez más difíciles de distinguir de las reales (Alexa es un ejemplo de ello), y siguen haciéndolo hoy en día.

Cómo se hace (vídeo)

El proceso para conseguir un deepfake de vídeo se ha convertido en algo extremadamente sencillo durante los últimos meses. A pesar de que las técnicas empleadas para hacer posible la edición del deepfake son tremendamente complejas, una vez desarrollado el software que lo hace posible, la aplicación es prácticamente automática. Aplicaciones tan comunes como Snapchat o Instagram incluyen algunas tecnologías rudimentarias que sirvieron de base para esta técnica y que permiten (de una manera mucho más fácil pero menos realista) cambiar los rostros.
Hoy en día para hacer uno de estos vídeos manipulados sólo hace falta instalar en un dispositivo electrónico una aplicación gratuita de internet, descargarse las fotos y vídeos que se quieren intercambiar y cargarlos en el programa.

Para conseguir el resultado deseado, se utilizan redes neuronales artificiales especialmente creadas y diseñadas con el único propósito de analizar imágenes. La red toma la fotografía del individuo cuyo rostro se quiere imponer sobre otro; la analiza y la reduce a una representación abstracta imposible de interpretar para una mente humana. Una vez concluida, realiza el proceso inverso, y traduce la imagen abstracta a una fotografía. Realiza este proceso cientos de miles de veces, pareciéndose cada vez más a la imagen original. Este proceso se conoce como “entrenamiento”, y se realiza a cada una de las caras por separado (en un vídeo, sobre cada plano). El resultado es un modelo que permite deconstruir y reconstruir cada uno de los rostros. Una vez llegado este punto, se intercambian las reconstrucciones y se sobreponen a la imagen original, de esta manera se consigue “el trasplante de cara”.
Pero para que dicho “trasplante” sea creíble es necesario vídeos de cada una de las personas con diferentes condiciones de luz y perspectivas. Cuanto más contenido procese el programa, más realista será el resultado.
El principal programa utilizado para el deepfake se llama FakeApp, es gratuito, de código abierto, y requiere una cualificación mínima para crear contenido manipulado. Lo que hasta hace un par de años solo estaba al alcance de las grandes productoras de Hollywood hoy lo puede hacer ahora cualquiera desde su casa.
Existe además otro software que permite añadir, eliminar o cambiar las palabras que dice una persona en un vídeo. Para ello basta editar un cuadro de texto para que la inteligencia artificial se encargue del resto. El software que permite hacer estas manipulaciones no está en este momento disponible al público, aunque Adobe prepara desde hace años un prototipo de una aplicación llamada VoCo para ello.
Un grupo de científicos de la Universidad de Stanford, el Instituto Max Planck de Informática, la Universidad de Princeton y Adobe Research han realizado un estudio publicado en The Verge, titulado ‘Text-based Editing of Talking-head Video’, que muestra cómo efectivamente cada día es más sencillo hacer un deepfakey la creciente preocupación por el caos que la manipulación masiva de vídeos podría provocar en el futuro.

 

Para qué se usa

La aparición del deepfakeen 2017 supuso una revolución. Los montajes de vídeo y efectos especiales eran muy anteriores, pero por primera vez se empleaba la inteligencia artificial para hacerlos. Era algo nunca visto que las facciones de una persona se acoplaran a los movimientos y muecas de otra; y aún más novedoso era el hecho de que para ello no se necesitara prácticamente el factor humano; solamente la inteligencia artificial. Al tratarse de una tecnología novedosa, aún en fase experimental, el resultado tenía errores evidentes en la superposición de los rostros, pero era mucho más inmediato y de menor coste que los clásicos montajes y daba un resultado con un realismo por aquel entonces suficiente.
Las primeras aplicaciones que se hicieron de esta tecnología fueron en la industria pornográfica. La mayoría de los primeros vídeos que se realizaron utilizando FakeApp consistían en la superposición de la cara de un famoso a la de un actor pornográfico. De esta manera miles de usuarios en internet vieron satisfechas sus fantasías sexuales con algunas de las celebridades más famosas del mundo a través de sus pantallas, entre ellas destacan nombres como Natalie Portman, Emma Watson o Scarlett Johanson.

Esta última, que da vida a la Viuda Negraen el exitoso universo cinematográfico de Marvel, ha declarado al Washington Post que, en su opinión, combatir el porno deepfake desde la legalidad es una causa perdida. “Claramente esto no me afecta tanto porque la gente asume que en realidad no soy yo en una película porno, por muy degradante que sea. Creo que legalmente es una búsqueda inútil, principalmente porque Internet es un vasto agujero negro que se come a sí mismo. Es una búsqueda infructuosa para mí, pero es una situación diferente a la de alguien que pierde un trabajo debido a que su imagen se usa de esa manera. El caso es que tratar de protegerse de internet y su depravación es básicamente una causa perdida.”, ha dicho. Además, ha insistido en que las diferencias legales entre países hacen esa lucha aún más complicada: “Aunque puedas ser capaz de derribar páginas web en los EE. UU.
que están utilizando tu cara [de forma ilegal], las mismas reglas podrían no aplicarse en Alemania.”. Asegura que, “por desgracia, ya ha recorrido ese camino muchas veces”.
Pero el potencial del deepfakemás allá de la pornografía no pasó desapercibido y pronto se empezó a emplear en la industria del entretenimiento, más concretamente del cine. El mejor ejemplo de esto es la saga de Star Wars. En el SpinOff de la saga original llamado Rogue One: una historia de Star Wars (2016), el personaje de la joven princesa Leia es interpretado por una joven Carrie Fisher (la actriz original) a pesar de que la actriz había fallecido antes de comenzar el rodaje de la cinta. Esto fue posible gracias a esta novedosa tecnología.
Otro ejemplo claro del uso legítimo del deepfake en la industria del entretenimiento es la película de este año (2019) llamada Géminis, protagonizada “doblemente” por Will Smith. En este thriller de acción un asesino a sueldo del Gobierno que quiere dejar su trabajo se ve perseguido por un agente que resulta ser él mismo con treinta años menos. Para hacer esta versión joven de Smith se ha empleado, al igual que en Rogue One,esta tecnología. Will Smith ha declarado sentirse entusiasmado con su doble digital: “Ahora hay un modelo totalmente digital de mi yo con 23 años.[…]Ya puedo ponerme gordo mientras uso a mi joven gemelo [en las películas]».

Del “doble” de Will Smith, la crítica asegura que la animación es prácticamente perfecta. Sin embargo, cabe

destacar que para la creación digital de esta versión que recuerda más al Will Smith del Príncipe de Bel-Air en los años 90 que, al actual, se ha partido de la tecnología deepfake,pero invirtiendo además una gran suma de dinero en medios y postproducción. Algunas fuentes de la industria estiman que la creación del doble digital del actor podría haber costado unos 25 millones de dólares; aunque otros ubican esta cifra por debajo del millón.

De lo que sí que no hay duda es de que el deepfakeabre una infinidad de puertas a la industria del cine: actores inmortales, siempre jóvenes; la resurrección de celebridades difuntas, el fin del conocido como Síndrome Darrin (el cambio repentino de un actor por otro en una serie de televisión o en una saga de películas sin explicación). Incluso, en el caso de que esta tecnología prosperara, no haría falta nunca más que se contratara a más de un actor para representar a un personaje en distintas etapas de su vida.

La ciencia ficción ya predijo el deepfake; concretamente hace seis años con la película el Congreso. En esta cinta, la actriz Robin Wright se interpreta a sí misma como una actriz pasada de moda y con una reputación cuestionable a la que unos estudios de cine le ofrecen un contrato según el cual podrán explotar su cuerpo digitalmente para generar a un personaje analógico idéntico a ella para protagonizar películas. A cambio, Robin recibe una importante suma de dinero y la promesa de que su personaje digital se mantendrá eternamente joven en todas las películas en las que aparezca. La creación del personaje digital en la película se produce casi de la misma manera que se produce el deepfake real: en la película Robin se mete en una cabina en la que le toman millones de fotos con distintos tipos de luz en infinidad de poses. La imagen de Wright se convierte así en un producto, y cuando en un mundo de realidad virtual, su apariencia la puede adoptar cualquiera, la actriz se replantea el contrato y se arrepiente de haberlo firmado. Esta cinta lleva a la reflexión sobre los límites de la dignidad humana con la tecnología, concretamente con eldeepfake y merecía ser mencionada en este trabajo. Asusta pensar que años antes de que esta tecnología irrumpiera en el mercado fuera representada con tanta precisión en una película. Ahora solo falta esperar a que el desenlace de esta no se corresponda con tanta fiabilidad al futuro real.

La manipulación política a través del deepfake

Llegados a este punto, es evidente que los deepfakestienen grandes riesgos y suponen un gran reto para la humanidad. The Economist y The Guardian no exageraban para nada al plantearse que estos podían llegar a debilitar la democracia.
Tras la irrupción de los deepfakes, estosno tardaron en ser usados para la manipulación, sobre todo política. Algunos de los casos más relevantes fueron el vídeo de Nancy Pelosi (presidenta del Congreso de los EE. UU) en el que parecía que iba totalmente ebria en un discurso; el vídeo de Barack Obama en el que insultaba al presidente de los Estados Unidos, Donald Trump o el de Mark Zuckerberg diciendo tener todos los datos y secretos de millones de personas. Parémonos a pensar por un momento en lo siguiente: si el contenido y la información que nos llega desde los políticos, figuras diplomáticas y líderes mundiales a través de los medios no es real o no confiamos en que lo sea, ¿qué criterio tomaremos a la hora de ejercer, por ejemplo, nuestro derecho al voto?
Muchos comparan la desconfianza e incertidumbre que están provocando estas manipulaciones con lo que, en su día, allá por los años noventa, supuso el retoque fotográfico y el Photoshop. Algunos afirmaban entonces que ya nunca podrían confiar en una imagen como fuente de información; y, sin embargo, un par de décadas después podemos comprobar que no ha sido así. Ahora falta comprobar lo que nos depara el futuro de los deepfakes.
Cómo evitarlos

Aunque la tecnología deepfakehaya evolucionado tanto en los últimos dos años siguen teniendo errores que permiten identificarlos, algunos incluso a simple vista.

Según el profesor de la Universidad de Albany, Siwei Lyu, la inteligencia artificial encargada de los deepfakes no ha conseguido todavía un ritmo de parpadeo normal en los personajes que aparecen en los vídeos manipulados. Por ello, ha creado una herramienta que, asegura, detecta con un 95% de fiabilidad los vídeos falsos.

Otros trucos sencillos que pueden ayudar a descubrir los deepfakesson la claridad de la imagen, el tono y la iluminación de la piel, el recorte, y la gesticulación extraña. Si se percibe una diferencia de claridad, iluminación o tono de piel evidente entre el rostro del protagonista y el resto de la imagen, posiblemente haya sido incrustado. Si el contorno de la cara se ve un poco pixelado o el recorte de la imagen no cuadra con las medidas del cuerpo, en especial del cuello, probablemente se trate de un deepfake. Si los gestos no van acompasados o resultan demasiado “raros”, lo más probable es que también se trate de un deepfake. Además, al tratarse de proceso muy trabajoso por el uso de la inteligencia artificial, la mayoría de estos videos tienen duraciones cortas. Y, por supuesto, el último consejo es tener en cuenta la de fiabilidad y profesionalidad de la fuente a través de la cual se ha llegado hasta ese contenido.

Pero la inteligencia artificial aprende de sus errores, y llegará el día en el que todos estos consejos ya no sirvan para detectar los montajes. No obstante, esta es una tecnología aún joven e imperfecta y otra tecnología que permita identificarlos está a tiempo de desarrollarse paralelamente de manera que siempre sea posible determinar si el contenido que estamos consumiendo se trata (o no) de un caso de desinformación.

Plataforma como Pornhub ya se han comprometido a combatir este tipo de contenido y eliminarlo de su catálogo; las autoridades chinas han puesto encima de la mesa la opción de ilegalizarlo; en lugares como el estado California ya se han aprobado leyes contra ellos; desde Facebook han asegurado que no van a eliminar los vídeos falsos pero que sí dejarán de promocionarlos, otras grandes empresas como Twitter, Amazon o Microsoft también se han unido a esta gran lucha contra la desinformación; y Adobe, la empresa que desarrolla Photoshop ya está trabajando en la creación de herramientas que permitan detectar las imágenes editadas en cuestión de segundos. Una de ellas, llamada ‘About Face’, ya ha sido presentada al público, aunque solo sirve para detectar imágenes, no deepfakes.

De lo que no cabe duda es de que, en un momento como el actual en el que lasfakenewsestán a la orden del día, los deepfakeson un problema más que se suma a la desconfianza en los medios y un reto más para los periodistas del futuro.

Cómo afecta a la libertad humana

Los deepfakeshan llegado para quedarse y suponen, como ya he dicho, todo un reto para la humanidad. El uso negativo de esta tecnología puede atacar la dignidad de la persona, manipular las sociedades y, sobre todo, acabar con la libertad interior y de decisión del ser humano.

La influencia evidente de los medios en la sociedad es una realidad ya asumida por la ciudadanía como algo normal, y forma parte del correcto funcionamiento democrático de las sociedades occidentales.

Si bien es cierto que esta normalidad es un factor positivo porque identifica el funcionamiento democrático con la existencia de medios de comunicación plurales, también lo es el hecho de que el mal uso del derecho a la información (generalmente debido a intereses económicos y políticos) con herramientas como el deepfakepone, como indica The Economist, en peligro los propios cimientos de la democracia atacando la libertad.

“Se produce [en la actualidad] una cierta oposición entre la legítima aspiración entre la legítima aspiración social de los ciudadanos a hacer uso del derecho a la información, y unos medios que tratan de hacer un uso discrecional del mismo, sometidos a los imperativos económicos e ideológicos de unas empresas atentas a las circunstancias de las diferentes coyunturas“

–      Juan Antonio García Galindo

López Quintás hace en su libro La defensa de la libertad en la era de la comunicación una diferenciación entre la “libertad de maniobra” (capacidad de elegir las posibilidades de acción que más nos gustan) y la “libertad interior” o “libertad creativa” (capacidad de elegir en virtud del ideal auténtico de nuestra vida).

Las últimas generaciones han empleado el término libertad como palabra talismán, resultandos insistentes en la exigencia de, sobre todo, la libertad de maniobra. Y es que para desarrollarnos plenamente como personas esta es necesaria, pero tener libertad de maniobra sin libertad interior es infructuoso e imposible.

López Quintás asegura, por tanto, que no basta vivir en una democracia para vivir con una verdadera libertad interior. El catedrático pone como prueba de ela necesidad de libertad de maniobra la vigilancia y exigencia pública de esta que ejercen los medios de comunicación sobre los poderes públicos, sin las cuales se verían coartadas nuestras posibilidades para configurar nuestra vida en aspectos como la educación, la religión, la cultura…

El catedrático también asegura que está bien hecho el valorar positivamente esa función, pero que “no nos debemos dejarencandilar por tal valoración y no advertir que la libertad de expresión (que es un tipo de libertad de maniobra impuesta en los régimenes democráticos)puede ser utilizada para manipularnos y privarnos, así, de la forma de libertad (la creativa) que nos permite vivir con la dignidad que corresponde a una persona”. Pero con el deepfakeesa manipulación de la que habla López Quintás ha llegado a otro nivel; ni siquiera podemos comprobar que ese contenido que supuestamente muestra la realidad, y sobre la que los medios de comunicación ejercen su vigilancia, sea verdadero.

Pero ¿Qué es exactamente manipular? ¿Quién lo hace? y sobre todo ¿Para qué?

López Quintás dice que manipular equivale a manejar; y que únicamente son susceptibles de manejo los objetos (realidades pertenecientes al nivel 1); pero que, sin embargo, y en sentido éticamente negativo,
manipular también es tratar a una persona o grupo de personas (pertenecientes al nivel 2) como si fueran objetos a fin de dominarlos fácilmente y lograr un objetivo.

Esa forma de trato conlleva un rebajamiento de nivel que López Quintás denomina envilecimiento. En el caso del deepfakese da un curioso fenómeno, ya que en él se cumplen ambas definiciones, ambas válidas: se manipula el contenido multimedia como objeto y se manipula (con el propio contenido) al interceptor, es decir, se envilece a la persona.

En el caso de la manipulación humana y el envilecimiento a través de la información siempre se parte de un conocimiento verdadero (adecuado a la realidad), pero ese conocimiento se altera premeditadamente para que el discurso cause en el interlocutor lo que el emisor desea, siendo este último consciente de que lo que está haciendo es una acción éticamente negativa: mentir.

Guy Durandin dice de la mentira que “queda definida como una divergencia entre el discurso (lo que se dice al interlocutor, la representación de la realidad que se transmite; en el caso del deepfake, el contenido multimedia) y el conocimiento (la representación que el emisor se hace de la realidad)”.

Y es que Durandin diferencia dos correlaciones poco evidentes en primer término: por un lado, la que se da entre la realidad y el conocimiento, que diferencia la verdad del error; y por otro, la que se da entre el conocimiento y el discurso, esto es, la que diferencia la veracidad de la mentira. Cabe destacar el apunte de que si, de forma sincera, el emisor dice algo que cree saber, pero su conocimiento de la realidad es erróneo, nunca logrará transmitir una representación adecuada de la realidad a su interlocutor; pero no habrá cometido ninguna falsedad, sino que habrá transmitido un error, no una mentira. No obstante, para realizar un deepfake, esto nunca ocurre, pues debe haber un factor humano que cree ese contenido de manera consciente y premeditada; por lo que el discurso es siempre compartido con el conocimiento previo por parte del creador de que no es correspondido con la realidad. Y si el creador no advierte a los interlocutores de la falsedad de su creación (a menos que estemos hablando de la ficción), lo que estará haciendo será, efectivamente, mentir, engañar y, por tanto, desinformar.

Lopez Quintás afirma que el manipulador nunca intentará hacer más felices a las personas, sino dominarlas en algún aspecto de la vida y dirigir su conducta. El manipulador lo único que quiere es “vencer sin convencer”, es
decir, que intenta seducir a la masa para que acepte lo que le ofrece sin darnos razones. Por ello, no le habla a la inteligencia ni respeta nuestra libertad humana (nivel 2), sino que actúa astutamente sobre nuestros centros de decisión a fin de arrastrarnos (nivel 1) a tomar las decisiones que favorezcan únicamente sus propósitos.

 

 

 

La manipulación de tipo comercial, por ejemplo, quiere convertirnos en clientes con el simple objetivo de que adquiramos un producto; y la de tipo ideológico intenta modelar el espíritu de personas y pueblos a fin de adquirir dominio sobre ellos de forma rápida, contundente, masiva y fácil. Esta es la manipulación que se puede alcanzar mediante el deepfakey que preocupa a los medios de todo el mundo.

 “Para dominar al pueblo de esta forma basta reducirlo de comunidad a masa, concepto más bien cualitativo que cuantitativo. Las personas, cuando tienen ideales valiosos, convicciones éticas sólidas, voluntad de desarrollar todas las posibilidades de su ser, tienden a unirse entre sí solidariamente y estructurarse en comunidades. Debido a su cohesión interna, una estructura comunitaria resulta inexpugnable.”

–      Alfonso López Quintás

Noam Chomsky e Ignacio Ramonet defienden en su libro Cómo nos venden la moto, la idea de que, que para inhibir esa libertad e inteligencia humana y apelar a los impulsos de los manipuladores ven como herramienta la falsificación de la historia y la realidad, de manera que, cuando, por ejemplo, atacamos o destruimos a alguien lo que creemos estar haciendo es proteger y defendernos a nosotros mismos de los peores monstruos y agresores, y cosas por el estilo. Dicen de nuestra cultura que el cuadro del mundo que se presenta a la gente (en cuanto a temas como la fuerza militar o las desviaciones democráticas) no tiene la más mínima relación con la realidad, ya que la verdad sobre cada asunto queda enterrada bajo montañas de mentiras; mentiras que, en un futuro, por herramientas como eldeepfake,serán difícilmente contrastables.

Durandin clasifica en su libro La información, la desinformación y la realidadlas mentiras entre personas en dos grandes categorías según su fin: aquellas que sirven a los intereses del propio “embustero”; y las apodadas “caritativas”, hechas, en principio, en interés del otro. “En la desinformación no existen mentiras caritativas, no hay ‘mentira piadosa’ La desinformación se hace en interés del desinformador y apunta, muy a menudo, a perjudicar al interlocutor (o bien a un tercero por intermediación del interlocutor)”, asegura Durandin. Y esto es lo que ocurre con los deepfake de carácter político: desinforman, con la intención de perjudicar al interlocutor, de envilecerlo, de robarle la libertad creativa. ¿El objetivo? Puede ser político, social, económico… Sólo aquel que difunde contenido deepfakelo sabe. Y eso es lo que más asusta.

 

Deja un comentario