Inventar hechos, deformar la realidad, crear “datos al­te­r­na­ti­vos”: las noticias falsas no son algo nuevo en Internet. Estas abundan en la Red, ya sean imágenes amañadas, novedades aparentes o in­fo­r­ma­ción fa­l­si­fi­ca­da, de modo que separar la realidad de la ficción es cada vez más difícil. Ahora las fa­l­si­fi­ca­cio­nes han alcanzado un nuevo nivel y se llaman deepfakes.

Estos apa­re­cie­ron por primera vez en Reddit en diciembre de 2017 cuando un usuario logró manipular vídeos po­r­no­grá­fi­cos so­bre­po­nie­n­do los rostros de pe­r­so­na­jes pro­mi­ne­n­tes con una veracidad abru­ma­do­ra. La creación de vídeos “porno” con caras famosas vivió durante un tiempo un verdadero boom y aunque hoy tanto Reddit como otras pla­ta­fo­r­mas como Twitter o Discord han prohibido la difusión de los vídeos ma­ni­pu­la­dos, el avance de los deepfakes sigue siendo imparable. ¿Por qué tanto revuelo?

¿Qué son los deepfakes?

La creación de los llamados “fakes”, fa­l­si­fi­ca­cio­nes en inglés, requiere tener co­no­ci­mie­n­tos a nivel experto e invertir horas de trabajo, sin obedecer ne­ce­sa­ria­me­n­te a un propósito oscuro. In­te­r­ca­m­biar los rostros de distintos actores es algo habitual en Hollywood. La di­fe­re­n­cia es que aquí pa­r­ti­ci­pan es­pe­cia­li­s­tas en montaje y en animación por ordenador (CGI), mientras que los deepfakes son creación de un ordenador sin in­te­r­ve­n­ción humana.

Se llama a estos vídeos “deepfakes” porque parten del apre­n­di­za­je profundo (deep learning), una rama del apre­n­di­za­je au­to­má­ti­co. En los deepfakes, el in­te­r­ca­m­bio de rostros u objetos depende de al­go­ri­t­mos que han de nutrirse del mayor número posible de datos visuales (imágenes y vídeos) para que el apre­n­di­za­je profundo sea efectivo. Cuanto más material gráfico se disponga de una persona, mejor debería ser el resultado.

Consejo

Al contener miles de fo­to­gra­mas desde di­fe­re­n­tes puntos de vista, cualquier vídeo puede co­n­ve­r­ti­r­se en una excelente materia prima. Los vídeos, además, re­pre­se­n­tan los rostros en po­si­cio­nes mucho más naturales que las fotos, que no­r­ma­l­me­n­te solo muestran una cara sonriente desde una pe­r­s­pe­c­ti­va frontal.

Con unas 300 imágenes del rostro de una de­te­r­mi­na­da persona, a poder ser desde todas las pe­r­s­pe­c­ti­vas posibles, ya se dispone de su­fi­cie­n­te material para obtener un resultado decente. En el código de los deepfakes hay un tipo de red neuronal ar­ti­fi­cial llamada au­toe­n­co­der (au­to­co­di­fi­ca­dor) a la que se entrena para comprimir y de­s­co­m­pri­mir datos. En la de­s­co­m­pre­sión, el au­toe­n­co­der intenta lograr un resultado lo más cercano posible al original. Para poder hacerlo, durante el proceso de co­m­pre­sión la red aprende a di­s­ti­n­guir los datos re­le­va­n­tes de los que no lo son.

Si se provee al algoritmo de numerosas imágenes de perros, la red neuronal ar­ti­fi­cial aprende a co­n­ce­n­trar­se en el perro y a ignorar el resto, que suele de­no­mi­nar­se ruido (noise), de tal modo que, con estos datos, el au­toe­n­co­der puede crear un perro por sí mismo. Esta es también la mecánica en el in­te­r­ca­m­bio facial de los vídeos deepfake: la red neuronal aprende el rostro de la persona y puede crearlo de forma autónoma, incluso si cambia de posición o hace un gesto, como abrir la boca, por ejemplo.

Para que el in­te­r­ca­m­bio sea efectivo, el algoritmo ha de ser capaz de reconocer dos caras, la que aparece en el original y la que ha de su­s­ti­tui­r­la. Para poder hacerlo se utiliza una entrada (co­di­fi­ca­dor) y dos salidas (de­co­di­fi­ca­do­res): el co­di­fi­ca­dor o encoder analiza el material mientras que los dos de­co­di­fi­ca­do­res o decoder generan dos salidas di­fe­re­n­tes, el rostro A y el rostro B.

La misión del algoritmo es en de­fi­ni­ti­va su­pe­r­po­ner el rostro B, que no aparece en el vídeo, sobre el rostro A, que sí lo hace. Esto pone de relieve la di­fe­re­n­cia de los deepfakes respecto a los ya conocidos fakes, limitados a las imágenes, porque mientras aquí se recorta un rostro para, tras retocarlo o editarlo, añadirlo a otro archivo diferente, en los deepfakes no solo se copia material visual en una imagen diferente, sino que se crea material nuevo. De otra manera la mímica no podría ajustarse de forma tan natural a los gestos de la imagen original.

Esto explica algunos errores típicos de estos videos que suelen aparecer cuando las redes neu­ro­na­les se topan con mo­vi­mie­n­tos atípicos, al­ca­n­za­n­do así sus propias li­mi­ta­cio­nes. Cuando no se dispone de su­fi­cie­n­tes imágenes desde la pe­r­s­pe­c­ti­va adecuada, el fotograma adquiere un aspecto borroso debido a que el algoritmo intenta generar una imagen a partir del poco material de que dispone, lo que solo puede hacer a duras penas y pre­s­ci­n­die­n­do de los detalles.

La historia de los deepfakes: de Reddit al mundo

Los deepfakes nacen en Reddit, página web conocida por ofrecer en sus foros se­cu­n­da­rios, los llamados su­bre­d­dits, alo­ja­mie­n­to a los temas más curiosos. En diciembre de 2017 un redditor –como se conoce a los usuarios en el universo Reddit– con el nombre “deepfakes” creó un subreddit y lo utilizó para publicar vídeos po­r­no­grá­fi­cos con pe­r­so­na­jes famosos. Para ello, el usuario creó el algoritmo cuya mecánica se ha descrito arriba, a su vez apoyado en te­c­no­lo­gías como la bi­blio­te­ca open source Keras y Te­n­so­r­Flow de Google.

Al­ca­n­za­n­do pronto los 15 000 se­gui­do­res, el canal fue pre­ci­n­ta­do por Reddit y otras empresas como la pla­ta­fo­r­ma de vídeo po­r­no­grá­fi­co Pornhub para prohibir la di­s­tri­bu­ción de porno ma­ni­pu­la­do. ¿Puede esto impedir el avance de los deepfakes? Apenas, puesto que el código de­sa­rro­lla­do para los deepfakes es open source y está di­s­po­ni­ble li­bre­me­n­te, por ejemplo en GitHub, donde se alojan varios re­po­si­to­rios de de­sa­rro­lla­do­res que trabajan en los al­go­ri­t­mos. Incluso ha aparecido una apli­ca­ción, la FakeApp.

Con este programa, cualquier persona con un mínimo de habilidad puede jugar a cambiar caras. Los re­qui­si­tos técnicos para crear deepfakes con la app se reducen a una tarjeta gráfica Nvidia con cierta potencia, donde se encuentra la unidad de pro­ce­sa­mie­n­to gráfico (GPU) que el programa utiliza para los cálculos. También es posible crear deepfakes con la CPU de un ordenador, pero se tarda mucho más que uti­li­za­n­do la apli­ca­ción.

En­tre­ta­n­to, la comunidad in­te­r­nau­ta ha en­co­n­tra­do otros motivos más allá del porno para crear estos vídeos, si bien, como es normal en Internet, no pasan del mero en­tre­te­ni­mie­n­to. Un tipo de deepfake muy popular es aquel que utiliza el rostro de un actor en una película en la que no in­te­r­vie­ne, como es el caso del popular fragmento de El señor de los anillos en el cual todos los rostros fueron su­s­ti­tui­dos por el de Nicholas Cage, o la conocida escena de “Instinto básico”, que pasa a ser pro­ta­go­ni­za­da por Steve Buscemi en lugar de Sharon Stone.

Im­pli­ca­cio­nes sociales de los deepfakes

Este tipo de diversión no es mala en sí misma, pero sus novedosas po­si­bi­li­da­des de ma­ni­pu­la­ción sitúan a la sociedad ante varios desafíos, por ejemplo, respecto a la cuestión de la legalidad. Las actrices cuyos rostros pudieron verse en aquellos vídeos po­r­no­grá­fi­cos no dieron en ningún momento su co­n­se­n­ti­mie­n­to. Aparte de su dudosa moralidad, estos vídeos deepfake suponen una clara in­tro­mi­sión en el derecho personal a la intimidad, pues podrían incluso dañar la repu­tación a largo plazo.

Hecho

Hasta ahora los deepfakes han utilizado sobre todo la imagen de pe­r­so­na­jes famosos. Esto se debe, entre otras cosas, a que el material gráfico di­s­po­ni­ble en la red sobre estas personas es muy abundante. Con todo, al publicar cada vez más fo­to­gra­fías sobre nosotros mismos, los usuarios pa­r­ti­cu­la­res también pueden ser víctima de este tipo de vídeo.

Más allá del daño personal, los deepfakes también podrían poner en marcha cambios sociales. Todos conocemos las noticias falsas (fake news) que desde hace algunos años rondan los medios de co­mu­ni­ca­ción. Cada vez es más difícil di­s­ti­n­guir los hechos reales de las afi­r­ma­cio­nes falsas. Si hasta ahora los vídeos se co­n­si­de­ra­ban un indicio de veracidad, los deepfakes, que permiten amañar vídeos con re­la­ti­va­me­n­te pocos medios y no siempre por diversión, han acabado con este fu­n­da­me­n­to.

Las fa­l­si­fi­ca­cio­nes han sido siempre un im­po­r­ta­n­te medio de pro­pa­ga­n­da, pero con los deepfakes el impacto en la política puede adquirir una dimensión mucho más im­pre­de­ci­ble. Mientras un vídeo en que se ha in­te­r­ca­m­bia­do la cara de Angela Merkel por la de Donald Trump se queda en algo hu­mo­rí­s­ti­co, con el mismo método podría situarse a algún político en una situación en la que nunca es­tu­vie­ron. Dado que hoy el machine learning puede incluso re­pro­du­cir la voz de una persona de una forma re­la­ti­va­me­n­te fiel, puede ima­gi­nar­se cómo lo hará en el futuro y darse por sentado que tales engaños tendrán un papel en los procesos ele­c­to­ra­les venideros y en las re­la­cio­nes in­te­r­na­cio­na­les.

Las im­pli­ca­cio­nes sociales de este cambio son claras y es que ya no podemos creer a pies juntillas lo que difunden los medios de co­mu­ni­ca­ción, en especial en Internet. Hay personas que ya hoy suscriben un sano es­ce­p­ti­ci­s­mo, pero son mu­chí­si­mas las que todavía confían en cualquier de­cla­ra­ción difundida en las redes sociales sin hechos que la fu­n­da­me­n­ten. ¿Ver para creer? En el futuro puede que ya no podamos confiar ni en lo que ven nuestros propios ojos.

Pese a todo, no todos los cambios que traen consigo los deepfakes son de­s­tru­c­ti­vos o necios. En la creación de efectos es­pe­cia­les el apre­n­di­za­je profundo puede si­g­ni­fi­car una verdadera re­vo­lu­ción. Hoy, insertar el rostro de un actor o una actriz en un cuerpo diferente es aún un proceso bastante complejo. En la película Rogue One de la saga La Guerra de las Galaxias los técnicos recrearon con efectos visuales a una joven princesa Leia aunque la actriz, Carrie Fischer, había cumplido ya los 60 años. Al parecer un in­te­r­nau­ta consiguió el mismo efecto con deepfakes en una media hora y con un PC doméstico. Los deepfakes de­mue­s­tran así tener el potencial para crear efectos es­pe­cia­les de una forma mucho más asequible.

Hay quien incluso especula que los deepfakes y la facilidad que traen consigo podrían dar libertad al es­pe­c­ta­dor para escoger, con un solo clic, al artista que debería llevar la voz cantante en su película favorita y lo mismo sería ima­gi­na­ble en el mundo de la pu­bli­ci­dad. Los artistas entonces dejarían de ponerse delante de la cámara para anunciar los más diversos productos, sino que solo tendrían que vender una licencia de uso de su rostro. Los co­n­su­mi­do­res podrían incluso probar las prendas de una tienda online en su famoso favorito.

En resumen

El apre­n­di­za­je au­to­má­ti­co ofrece po­si­bi­li­da­des inmensas para el futuro de nuestra sociedad. En la ca­te­go­ri­za­ción de imágenes o el de­sa­rro­llo de coches autónomos, Google ya está hoy ex­pe­ri­me­n­ta­n­do con las redes neu­ro­na­les ar­ti­fi­cia­les y el deep learning. Los deepfakes muestran una de las posibles caras oscuras de la te­c­no­lo­gía, puesto que, como se sabe, cualquier avance puede aplicarse también de forma de­s­tru­c­ti­va. Con ello, la sociedad es la encargada de encontrar so­lu­cio­nes a estos problemas y de apro­ve­char las ve­r­da­de­ras opo­r­tu­ni­da­des del machine learning y de los deepfakes.

Ir al menú principal