Morgan Freeman y Scarlett Johansson denuncian uso no autorizado de sus voces con inteligencia artificial
Morgan Freeman, el célebre actor reconocido por sus papeles en películas como “Los siete pecados capitales” y la trilogía de Batman de Christopher Nolan, lanzó una alerta sobre el uso sin autorización de su voz por una inteligencia artificial (IA).
Por qué Morgan Freeman denunció a la IA
Por medio de las redes sociales, el actor destacó lo importante de que su voz, la cuál es parte de su carrera profesional, no sea usada sin autorización, y agradeció el apoyo de sus seguidores.
Johansson es conocida por su postura firme y su lucha por el control sobre su imagen y voz, argumentando en varias ocasiones lo inaceptable que es el abuso de derechos por parte de terceros.
Qué problemas tiene que la IA imite la voz de famosos
Estos incidentes han sacado a la luz una problemática de fondo acerca de las implicaciones legales y éticas del uso de la inteligencia artificial en la recreación de identidades vocales, sobre todo de personajes reconocidos.
La capacidad de las herramientas de IA para replicar con gran precisión la voz de una persona plantea serias preocupaciones sobre la protección de los derechos de propiedad intelectual y la preservación de la integridad personal.
La preocupación de Freeman y Johansson refleja una creciente inquietud dentro de la industria del entretenimiento. La imitación no autorizada no solo afecta a las celebridades, sino también a los artistas en general, quienes dependen de la singularidad de sus voces para diferenciarse en un mercado competitivo.
Qué hacer para que la IA no afecte a los derechos de autor
Frente a esta problemática, expertos en derechos de autor y protección de la identidad, a través de varios espacios han comenzado a sugerir que se hace necesario revisar y actualizar las legislaciones vigentes, para adaptarse a las nuevas realidades tecnológicas.
Por su parte, el debate sobre el uso ético de la inteligencia artificial no se limita a la industria del entretenimiento. La posibilidad de crear “deepfakes” y otros contenidos manipulados utilizando IA plantea desafíos significativos también en el ámbito político y social.
La capacidad de hacer que alguien diga algo que nunca dijo puede tener implicaciones devastadoras para la reputación de individuos y organizaciones.
Las deepfakes son otra preocupación
Las imágenes que imitan personajes famosos para decir información falsa son casos de alto impacto. Por ejemplo, un estudio de la empresa de ciberseguridad Kaspersky reveló que el 70% de la población latinoamericana desconoce lo que es un ‘deepfake’, y el 67% no sabe identificar cuándo un video ha sido digitalmente manipulado con esta técnica.
En respuesta, varias empresas tecnológicas como Microsoft, Adobe e Intel están desarrollando herramientas para detectar ‘deepfakes’, aunque la mayoría aún están en fases tempranas.
Compañías de redes sociales como YouTube y Meta también están etiquetando contenidos sospechosos y prohibiendo ciertos tipos de ‘deepfakes’ en sus plataformas. Sin embargo, estas medidas han demostrado ser insuficientes.