Deepfake: aplicaciones y consideraciones
Durante la grabación de una película, el protagonista estrella debe abandonar el rodaje de manera inesperada. Unos asuntos médicos le impedirán continuar grabando, previsiblemente por varios meses. La producción de la película entra en crisis debido a que los plazos ya están ajustados y no se puede demorar más su estreno. Unos meses más tarde, sin que el protagonista haya vuelto a pisar los estudios, la película se estrena con gran éxito en taquilla y… ¡Sorpresa! Su protagonista aparece actuando en todas las escenas. ¿Qué es lo que ha pasado?
Aunque esta es solo una situación hipotética, cada día es más factible gracias a una tecnología basada en inteligencia artificial (IA) que en los últimos años ha experimentado un importante desarrollo: el deepfake.
¿Qué es el deepfake y qué aplicaciones tiene?
Esta técnica toma prestado parte de su nombre de la disciplina conocida como deep learning, ya que consiste en la aplicación de una serie de algoritmos de aprendizaje para modificar y crear contenido multimedia. Como resultado, es posible manipular un vídeo para que la cara e incluso la voz de una persona sea intercambiada por la de otra, es decir, se trataría de un contenido falso o fake, tal como indica el propio término. Y si bien en las primeras demostraciones de deepfake su identificación podía ser sencilla, cada vez es más complicado distinguir los contenidos reales de los editados, dado el avance de esta tecnología.
Como es natural, esta puede ser utilizada con distintos fines. El mundo cinematográfico es un ejemplo de ello, ya que permite presentar en pantalla a actores y actrices que no están en condiciones de llevar a cabo un papel e incluso devolverlos a la vida a través de su imagen. También se emplea como herramienta para la creación de contenido de entretenimiento y marketing, aprovechando la imagen de celebridades e incluso creando personas completamente artificiales.
Su uso para fines comerciales o de entretenimiento genera ciertos debates alrededor de cuestiones como el consentimiento y derechos del uso de imágenes, la transparencia y la confianza de los negocios a través de sus acciones publicitarias, que pueden llegar a inducir creencias sobre un producto o una marca que no son reales.
Como en otras áreas de la inteligencia artificial y de la tecnología en general, algunas personas aprovechan el deepfake con fines malintencionados. ¿Cómo? A partir de fotos o vídeos de una persona para simular acciones o decir mensajes falsos que comprometan su imagen. Esto podría llevar a imaginar casos de deepfake dirigidos, por ejemplo, a personalidades del ámbito político o empresarial, con el fin de menoscabar su imagen de confianza o de su organización e influir en la opinión pública.
Sin embargo, cualquier persona que tenga fotos publicadas sobre sí misma en la Red podría llegar a ser víctima de un deepfake, tanto por difamación como por extorsión. Y es que en los últimos años se han multiplicado las aplicaciones que permiten a usuarios sin conocimientos técnicos en inteligencia artificial a utilizarlas, y que podrían ser aprovechadas con estos fines.
También se ha detectado su uso como parte de estrategias de ingeniería social. El deepfake no solo se limita a la edición de contenido grabado, sino que tiene capacidad para modular la voz y la imagen en tiempo real, sirviendo como herramienta de suplantación de identidad. Así, un ciberdelincuente podría hacerse pasar por un miembro de una organización para obtener información confidencial, o incluso por un candidato en un proceso de selección con el fin de infiltrarse en esta de manera fraudulenta.
¿Qué medidas existen para frenar el deepfake malintencionado?
Como comentábamos, el uso de esta tecnología ha puesto sobre la mesa numerosos debates y desafíos que varios países y organizaciones internacionales ya están tratando de abordar. En el caso de España, el 13 de octubre de 2023 se publicó en el Boletín Oficial de las Cortes Generales la Proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial, cuyo propósito es regular este tipo de prácticas generando un marco de protección para las personas, en línea con el informe Tackling deepfakes in European policy de 2021 del Servicio de Estudios del Parlamento Europeo.
En este sentido, las empresas que hacen uso de esta tecnología deberán prestar especial atención a las nuevas regulaciones que se aprueben en esta materia, ante lo cual, perfiles como el responsable de cumplimiento legal o de protección de datos cobrarán un papel fundamental para garantizar su cumplimiento en todas las actividades.
Más allá de las cuestiones legislativas, a medida que surgen nuevas aplicaciones para generar deepfakes, también lo hacen aquellas que permiten detectarlos. De esta manera, se abre un nuevo campo de posibilidades profesionales a caballo entre la inteligencia artificial y la ciberseguridad, dirigidos al desarrollo de software que ayude a prevenir y combatir intentos de difamación, así como mejorar las medidas de protección ante intentos de phishing y otras amenazas cibernéticas.