top of page
Image by Philipp Katzenberger

Qubit Legal

Bienvenidos a nuestro Blog, Qubit Legal, donde compartimos artículos cortos y prácticos sobre los temas más relevantes y vigentes en Derecho y Tecnología. 

Search

Deepfakes: ¿Cómo legislar la realidad artificial?

Con la acelerada diseminación de herramientas de inteligencia artificial ha surgido un nuevo desafío que pone a prueba nuestra percepción de la realidad: los deepfakes. Estas creaciones de inteligencia artificial, capaces de generar o manipular contenido audiovisual de manera asombrosamente realista, han abierto una caja de Pandora llena de posibilidades y peligros.


Imagina por un momento que ves un video de tu político favorito diciendo algo completamente fuera de lugar, o una grabación de audio de tu jefe pidiendo que transfieras una suma importante de dinero a una cuenta desconocida. ¿Podrías distinguir si es real o una fabricación? Este es el inquietante escenario que los deepfakes han hecho posible.



creando un deepfake


Los riesgos son tan variados como preocupantes. Desde la suplantación de identidad que puede arruinar reputaciones en cuestión de horas, hasta la creación de pornografía no consentida que viola la intimidad de las personas. La desinformación y la propaganda política adquieren una nueva dimensión cuando pueden poner palabras falsas en boca de líderes mundiales. Incluso el mundo del entretenimiento y la propiedad intelectual se ve amenazado, con la posibilidad de recrear las actuaciones de celebridades fallecidas o personajes de ficción sin autorización.


Ante este panorama, la Unión Europea ha decidido tomar cartas en el asunto con su recinén aprobada Ley de Inteligencia Artificial (AI Act). Esta legislación pionera busca establecer un marco regulatorio que permita aprovechar los beneficios de la tecnología mientras se mitigan sus riesgos. Pero, ¿cómo se logra este delicado equilibrio?


La propuesta europea introduce el concepto de “marcas técnicas” (watermarks). Imagina un sello digital invisible que dice “Hecho por IA” en cada pieza de contenido generado artificialmente. Pues bien, bajo el AI Act los proveedores de sistemas de IA tendrán la responsabilidad de incorporar soluciones técnicas en sus sistemas o modelos, asegurando que el contenido sintético pueda ser identificado y rastreado.


clonando una voz con IA


Pero la responsabilidad no recae solo en los creadores de la tecnología. Los implementadores, aquellos que utilizan estos sistemas para generar contenido, también tienen un papel crucial. La ley les exige revelar claramente cuando el contenido ha sido generado o manipulado por IA.


Sin embargo, la realidad rara vez es blanca o negra, y la regulación refleja esta complejidad. Por ejemplo, si estás viendo una película de ciencia ficción que utiliza deepfakes para crear alienígenas ultra realistas, probablemente no quieras que aparezca un aviso en la pantalla recordándote constantemente que es IA. Para estos casos de uso artístico, creativo o satírico, la ley permite una revelación más sutil que no interfiera con la experiencia.


El panorama se complica aún más cuando hablamos de texto generado por IA. Si, por ejemplo, un periódico utiliza IA para generar un artículo sobre un tema de interés público, debe revelar su origen artificial. Sin embargo, si el contenido ha pasado por un proceso de revisión humana o control editorial, y hay una persona o entidad responsable de su publicación, esta obligación puede no aplicar.


Curiosamente, la ley también reconoce que hay situaciones donde el secreto puede ser necesario. Si las autoridades están utilizando deepfakes para investigar o prevenir crímenes, no tienen que revelar que el contenido es generado por IA.


Todo esto nos lleva a un dilema complejo. Por un lado, queremos proteger a la sociedad de los peligros de la desinformación y el engaño. Por otro, no queremos sofocar la innovación o limitar la libertad de expresión. Los deepfakes, después de todo, también tienen aplicaciones positivas en campos como la educación, el entretenimiento y hasta la medicina.


A medida que avanzamos en esta era de realidad maleable, nos enfrentamos a preguntas fundamentales sobre la verdad, la autenticidad y la confianza. La regulación de los deepfakes es solo el comienzo de un debate mucho más amplio sobre cómo queremos que sea nuestro futuro digital. En el caso de Costa Rica, se introdujo un proyecto de ley que busca precisamente prohibir el uso de deepfakes, pero sin excepciones ni otras alternativas que faciliten la innovación y el uso responsable de esta tecnología.


En última instancia, la eficacia de estas regulaciones dependerá no solo de la ley, sino de nuestra capacidad colectiva para adaptarnos a un mundo donde lo que vemos y oímos puede no ser lo que parece. La alfabetización digital y el pensamiento crítico serán más importantes que nunca.


Mientras tanto, la próxima vez que veas un video sorprendente en línea, quizás te encuentres buscando esa etiqueta invisible que dice “Hecho por IA”. Y eso, en sí mismo, es un testimonio de cómo la tecnología está cambiando no solo nuestro mundo, sino nuestra forma de percibirlo.


*Este artículo fue redactado con asistencia de inteligencia artificial bajo edición, verificación y supervisión humana del equipo de Datalex.

0 comments

Comments


bottom of page