21.7.25

Los deepfakes y el salvaje oeste digital

 El Gobierno danés ha anunciado planes para ampliar la ley de derechos de autor en «una medida pionera que permitiría a los ciudadanos exigir a las plataformas de redes sociales que retiren las falsificaciones digitales», como parte de una enmienda a la actual Ley de Derechos de Autor danesa. El cambio propuesto no se incluye en una ley específica, por lo que no tiene un nombre concreto como la «Ley de Seguridad en Línea» del Reino Unido o la «Ley Take It Down» de Estados Unidos. En su lugar, se trataría de una modificación de la legislación ya existente



Según el Gobierno danés, la legislación revisada otorgará a las personas control legal sobre sus imágenes, voces y rasgos faciales digitales, mitigando así los riesgos asociados al contenido generado por IA sin autorización.


Los vídeos generados en 2023 eran, francamente, abominables: torpes, parecían dibujados por un niño de jardín de infancia y con movimientos que infringían las leyes de la física. En 2025, sin embargo, son aterradoramente reales. Tu propio rostro podría estar mirándote, pronunciando palabras que nunca has dicho, con tu voz y tu cadencia, tan convincentes que podrías creer que estás viendo un vídeo de ti mismo.

La IA ofrece un mundo de oportunidades. Del mismo modo que las personas nacidas incluso en mi generación nunca imaginaron un ordenador potente en sus bolsillos capaz de conectar a personas de todo el mundo mediante videollamadas, responder a preguntas en cuestión de segundos o transmitir pensamientos al instante, imaginar que la IA podría llegar a ser tan potente como para producir un vídeo totalmente falso sobre personas que nunca han existido era cosa de ciencia ficción. Y, sin embargo, aquí estamos.

Al igual que la velocidad ultrarrápida de Internet cambió la forma en que interactuamos e incluso percibimos el mundo que nos rodea, la IA parece ser el siguiente salto cuántico en la relación de la humanidad con la tecnología. Muchos ya utilizan la IA en su vida cotidiana, desde usos inocuos como hacerse parecer personajes del Studio Ghibli, hasta pedirle a ChatGPT o Grok que les escriba un correo electrónico que están demasiado ocupados (o demasiado perezosos, según a quién le preguntes) para redactar. Pero, al igual que en su día se quejaba la gente de la proliferación de los teléfonos móviles, siempre habrá escépticos sobre la tecnología y sus efectos en la sociedad.No es algo injustificado. Este mismo año, en mi país, alguien fue detenido por utilizar la IA para «crear porno deepfake», tras manipular imágenes compartidas por una mujer que conocía para imitar contenidos pornográficos. El juez que dictó la sentencia comentó: «Estas personas tenían derecho a publicar sus imágenes en las redes sociales sin temor a que fueran manipuladas con fines sexuales», y, por supuesto, tiene razón.

Pero, y no estoy defendiendo en absoluto a este hombre malvado ni minimizando sus delitos, esto no es realmente un «deepfake». Ese término le da un nivel de sofisticación que no tiene. Lo que hizo este hombre fue realizar unos burdos retoques con Photoshop, algo que se lleva haciendo desde que existe Internet. La gente lleva mucho tiempo editando imágenes de otras personas, falsificando mensajes, atribuyendo citas y todo tipo de cosas. ¿Te acuerdas de «Let Me Tweet That»? Recuerdo que a un compañero de mi instituto le pusieron la cara en el cuerpo desnudo de una actriz porno. Es burdo y siempre ha existido, pero claramente no era una imagen creíble.Sin embargo, el creciente realismo de las imágenes significa que ya existen falsificaciones plausibles de personas reales. La sofisticación que ha alcanzado la IA va mucho más allá de poner la cara de una persona en el cuerpo de otra. Está construyendo, desde cero, una imagen o un vídeo de una persona convincentemente realista y casi indetectable sin su consentimiento o conocimiento. Esa es la diferencia clave entre los deepfakes modernos de IA y los primitivos photoshops del pasado.

Gran Bretaña ha intentado ilegalizar la creación de «deepfakes» sexualmente explícitos como parte del proyecto de ley sobre delincuencia y policía (2025), pero la legislación propuesta es, una vez más, demasiado generosa con lo que estas cosas implican en realidad, ya que abarca un amplio espectro de «creación de deepfakes sexualmente explícitos de alguien sin su consentimiento».

Sin embargo, existe un riesgo: la legislación danesa y la británica están tratando de ponerse al día con una tecnología que cambia tan rápidamente que el uso de la ley desaparece antes de que se seque la tinta. Dinamarca parece ser consciente de ello: el ministro de Cultura danés, Jakob Engel-Schmidt, ha destacado que «la tecnología ha superado a nuestra legislación actual».Por eso Dinamarca ha tratado de definir el «deepfake» en su legislación: «representación digital muy realista de una persona, incluyendo su apariencia y su voz». Al incluir el aspecto «digital» de la imitación en la ley, Dinamarca se centra explícitamente en los contenidos generados por la IA y, lo que es muy importante, ha incluido una exención para las parodias y las sátiras.

Con leyes de este tipo, surgen preocupaciones sobre las limitaciones que imponen a la libertad de expresión. Son vagas e imprecisas, por lo que deben considerarse con cautela. Si bien la ley danesa ha intentado definir los «deepfakes», su amplia definición de «representaciones digitales muy realistas» podría interpretarse de manera que abarque contenidos que no son ni perjudiciales ni engañosos, lo que significaría que la comedia o incluso la simple expresión artística se convertirían en ilegales. Incluso si esto se considera una compensación aceptable, abre la puerta a que sea el gobierno, y no el pueblo, quien defina la sátira.

Del mismo modo, la «parodia» sigue sin estar bien definida. ¿Es una parodia, sátira o abuso un vídeo burlón de un político importante en el que se le hace decir cosas en las que obviamente no cree o con las que no está de acuerdo? Los deepfakes pornográficos son claramente inaceptables, pero las leyes deben ser más precisas tanto para identificar el daño como para trazar la línea entre la libertad de expresión y la protección de las personas en riesgo.

Este artículo fue publicado originalmente en la Fundación para la Educación Económica.

0 comments:

Publicar un comentario