(Originalmente publicado el 2 de noviembre del 2020)
Grau vive
Hace unas semanas, en el contexto de la fecha en la que se conmemoraba la Batalla de Angamos, el colectivo Perú Te Quiero, conformado por empresas, organizaciones de sociedad civil, investigadores, académicos y comunicadores sociales, lanzó un video en el que un Miguel Grau habría revivido y nos convocaba a unirnos a una cruzada, a un "combate" contra la crisis social y sanitaria que vivimos.
Evidentemente Grau no está vivo. Tampoco se usó un actor disfrazado de Grau o a alguien muy parecido. No, el que apareció frente a nosotros era el propio Grau gracias a la magia de la inteligencia artificial, o propiamente dicho, la tecnología DeepFake.
¿Qué es el DeepFake? Es una técnica que, sobre la base de la inteligencia artificial y el machine learning, la máquina "aprende" sobre el rostro que tiene que cambiar. No es solo colocar un rostro sobre otro cuerpo, sino que además los gestos, las muecas, el pestañeo, todo se sintetiza en una nueva imagen. La máquina aprende los gestos y movimientos faciales falsos y, haciendo un reconocimiento facial del rostro original, los intercambia. El resultado, dependiendo de la calidad de los algoritmos del DeepFake que se usen, de la cantidad de información que se use, puede ser sorprendente.
Normalizando lo falso
El Deepfake ha venido siendo usado de muchas maneras, no todas con fines tan nobles como la de la campaña del colectivo Perú Te Quiero. Como el Deepfake no solamente se circunscribe al video, sino también al audio, ya existen evidencias de fraudes a través de llamadas telefónicas. También para lo que se ha llamado "porn revenge" o venganza a través de imágenes privadas. Añadir el Deepfake a esto puede destruirle la vida pública a una mujer, sea alguien del ámbito político o no.
Nosotros ya hemos vivido etapas marcadas por las noticias falsas, por la construcción de rumores para la destrucción de personajes públicos. Durante el fujimorismo se expandieron los llamados "diarios chicha" (sic), término referido los diarios de alcance popular y financiados por el Servicio de Inteligencia Nacional, que usaron sus portadas para difundir hechos falsos sobre la oposición de los años noventa. Si bien es cierto, esta campaña (que continuó con la imagen de Chabuca Granda también llamando a la unidad nacional) es bien intencionada, ¿qué impide detenernos en muertos? ¿por qué no con gente viva? ¿y si lo usamos para que digan lo que no quieren decir? ¿si lo usamos para modificar cierta memoria reciente? ¿dónde está el límite ético? ¿y qué tal para hacer acoso sexual? Karen Hao, del Technology Review del MIT, se plantea así que así como tenemos las herramientas para crear personajes inexistentes (o hacer que alguien diga o haga lo que nunca dijo o hizo), debemos tener herramientas para detectar lo falso:
"El resultado es un desajuste entre la naturaleza real de la manipulación informativa y las herramientas disponibles para combatirla. Gregory afirma: "Si alguien crea una herramienta para la manipulación o falsificación perfecta para el ojo o el oído humano, debería crear herramientas diseñadas específicamente para detectar esa falsificación". La pregunta es cómo obligar a los fabricantes de herramientas a arreglar ese desequilibrio." (Karen Hao, Technology Review).
Que una campaña que promueve valores republicanos (tan de moda en estos tiempos) use el Deepfake como parte central de la misma debe abrir un debate sobre el uso de dicha tecnología, sobre sus consecuencias, sobre su "normalización" (es decir, su aceptación sin mirada crítica).
Por suerte, esto recién comienza y estamos a tiempo para entrarle a estas discusiones.