La Era del Deepfake

Y su impacto en la industria pornográfica

Hola humano!

Acabas de llegar a

La Newsletter donde podrás aprender como aplicar los últimos avances de la Inteligencia Artificial en tu vida personal y profesional

En el correo de esta semana:

  • ⌚ La era del “Deepfake” ha comenzado

  • 🧑🏼‍⚖️ ¿Qué hacer si usan nuestra imagen en un “Deepfake”?

  • 🚨 Epidemia “Deepfake” en la pornografía

¿Te han reenviado esta newsletter?

¡Haz click y suscríbete!

La Era del “Deepfake” ha comenzado ⌚

La mayoría de nosotros habremos ya oído de algún caso en el que la voz de una celebridad se use para decir frases que nunca dijo, cantar canciones que no son suyas o hablar en idiomas que desconoce (conocido como “deepfake”).

Esto no es solo relativo a la voz, sino que también hemos visto como el rostro de celebridades es utilizado para hacerles ver en situaciones irreales, tanto en fotografía como vídeo.

Este tipo de contenido se ha estado publicando en redes sociales con tono cómico durante el último año, pero ¿y si dejase de ser una broma? 

La llegada de la generación de imágenes hiperrealistas al alcance de todos presenta unos riesgos que vulneran la intimidad de las personas.

Quién nos iba a decir casi 200 años después del primer procedimiento fotográfico (en 1824 por Niépce) que sería posible alterar y crear imágenes desde cero para que estas muestren lo que queremos.

Hasta ahora la presentación de pruebas de vídeo, fotografía y audio ha sido clave para la resolución de casos penales, así que, ¿cómo afectará esta revolución “artificial” al sistema jurídico?

¿Qué hago si han utilizado mi imagen? 👨🏼‍⚖️

En caso de que realicen un vídeo o foto usando nuestra imagen (aunque esta no suponga un riesgo para nuestra reputación), podemos denunciar y pedir su retirada ya que nos ampara la LOHI, al considerarse una intromisión ilegítima del honor y el RGPD, pues es una clara vulneración de la privacidad de la persona.

Sin embargo, la normativa mencionada protege únicamente a las personas perjudicadas por recreaciones digitales y manipulaciones de imágenes reales e idénticas a la persona. Si la imagen es simplemente “parecida” pero no “idéntica”, es posible que no tengas un caso sólido.

En caso de personajes públicos como cantantes, si sus canciones, melodías o letras han alteradas sin consentimiento, estos pueden acudir a la ley de propiedad intelectual.

Nota: La información proporcionada en este artículo es solo para fines informativos y no constituye una recomendación formal.

Epidemia “deepfake” en el porno 🚨

Durante los 9 primeros meses de 2023 se han subido 113.000 vídeos pornográficos falsos en sitios web, un 54% más que en todo 2022. Estas alarmantes cifras no incluyen los videos publicados en redes sociales, los compartidos en privado ni las imágenes manipuladas.

El ritmo vertiginoso al que crece la inteligencia artificial no hace ascos al sector pornográfico, crear “deepfakes” de naturaleza sexual está ahora más que nunca a un clic.

En una investigación que hizo pública la revista estadounidense Wired se destacan 35 sitios web, que sirven para almacenar exclusivamente vídeos de pornografía “deepfake” o incorporan estos contenidos junto con otro material para adultos.

En España ya hay bastantes casos de este tipo. En Almedralejo (Extremadura), sólo en septiembre de 2023 más de 20 niñas de entre 11 y 17 años denunciaron el uso de este tipo de herramientas para generar fotos de ellas desnudas sin que ellas lo supieran.

¿Y que dicen los expertos?

Sophie Maddocks, investigadora de derechos digitales y violencia cibersexual, comenta que “Sería muy diferente si fuéramos capaces de impedir el acceso a estas tecnologías. No deberían bastar dos segundos para iniciar potencialmente un delito sexual”.

Asher Flynn, profesora de la Universidad de Monash (Australia), especialista en IA y abusos facilitados por la tecnología indica que: “Las repercusiones potenciales en la salud mental y física de una persona, así como las consecuencias en su vida laboral, familiar y social, pueden ser inmensas; independientemente de que la imagen sea un deepfake o ‘real’”.

Es crítico realizar un esfuerzo desde los organismos regulatorios para que políticas y leyes avancen al ritmo del desarrollo digital y de la IA. En caso contrario, todos estaremos desprotegidos frente a futuras amenazas.

Enlace a la noticia consultada (link)

🙃 ¡Esto es todo por hoy!

Gracias por llegar hasta aquí! ¿Qué te pareció el boletín de hoy?

Nos vemos por LinkedIn o Twitter si estáis por ahí ¡Hasta la próxima!

Manu

P.d. Si aún no te has suscrito a “La Oveja Eléctrica” o quieres compartir el newsletter con un amigo, haz click aquí.