Usuarios de YouTube podrán denunciar contenidos creados con IA que utilicen su imagen o voz sin su autorización
La compañía asegura que se toma "muy en serio" la protección de los usuarios y que desarrolla medidas de privacidad para ofrecerles la seguridad que corresponde para un buen uso de la plataforma

ESTAMPAS

04/07/2024 08:00 am



El servicio de Google YouTube actualizó sus políticas de uso para permitir a los usuarios denunciar los contenidos creados mediante el uso de Inteligencia Artificial (IA) donde utilicen su imagen y voz sin su autorización, siempre que estos sean identificables "de manera única" y haya "suficiente información en el vídeo" que permita a otras personas reconocerles.


La plataforma también exige a los creadores a etiquetar el contenido modificado por IA como “contenido alterado”


¿Cómo funcionan estas denuncias en la plataforma?

Una vez se haya presentado una queja sobre la infracción de la normativa el creador del contenido contará con un plazo de 48 horas para que tome medidas al respecto, ya sea eliminar el vídeo o bien editar la información privada dl video.


Si el usuario no aplica las modificaciones el video puede ser eliminado de la plataforma 

En ese plazo, el creador puede usar herramientas de edición como 'Recortar' o 'Desenfocar', disponibles en YouTube Studio. Por el contrario, si el usuario decide eliminar el vídeo, la queja se cerrará, mientras que si la presunta violación de privacidad persiste, el equipo de la plataforma se encargará de revisarla, según ha explicado en su página web de soporte.

La plataforma aclaró que no acepta reclamaciones realizadas en nombre de terceros excepto si la persona cuya privacidad está siendo violada no tiene acceso a internet o a un ordenador, si está en situación de vulnerabilidad o si se trata de un menor, entre otras escenarios.