YouTube eliminará contenido de IA que simule tu voz o rostro

Las estafas basadas en Inteligencia Artificial generativa van en aumento. Por ello YouTube está abordando un nuevo enfoque en contra de este tipo de contenido, a partir del cual una persona podrá solicitar la eliminación de videos sintéticos, en caso de que simule la voz o rostro de alguna persona. Esta nueva medida busca que el video no sólo se baje de la plataforma por ser contenido engañoso, como en el caso de una deepfake, sino que las partes afectadas también soliciten su eliminación por tratarse de una violación a la privacidad. Si bien este enfoque es importante para la protección de la identidad de las personas afectadas, la empresa señaló que el solo hecho de enviar la solicitud de eliminación no implica que el contenido se va a dar de baja de la red social de forma inmediata, sino que también se tomarán en cuenta ciertos factores tomar la decisión.

Algunas de las excepciones que tendrá esta medida es si el contenido podría considerarse parodia, sátira o algo de valor e interés público, sin embargo, resalta que no se permitirán imágenes de alguna figura pública si se les muestra participado en “comportamientos sensibles”, como actividades delictivas, violencia o respaldando un producto o candidato político. Dicha medida es especialmente importante en un año de elecciones presidenciales en varios países del mundo, incluido Estados Unidos, que en noviembre celebrará su proceso electoral. Por otra parte, YouTube señaló que el responsable del contenido tendrá un lapso de 48 horas para actuar sobre la queja. Si el contenido se elimina antes de que termine ese tiempo, la queja se bloqueará, pero si no sucede así, YouTube iniciará un proceso de revisión entre ambas partes. En este sentido, la empresa dijo que el proceso de eliminación del video también implica borrar el nombre y más información personal del afectado en caso de que estuviera en la descripción del episodio o etiquetas del mismo.

La postura de la compañía no es ir en contra de toda la IA, pues el año pasado anunciaron una serie de integraciones con las que los creadores podrán utilizarla para generar videos de una forma más sencilla, además de que han motivado la integración de etiquetas para demostrar que un video contiene información generada por IA. No obstante, este tipo de medidas están orientadas a solucionar algunas de las preocupaciones más importantes que tienen los usuarios finales en relación al uso de la IA generativa. De acuerdo con datos de la Encuesta Global de Seguridad Online 2024 de Microsoft, la principal preocupación de los usuarios respecto a los problemas potenciales que puede generar la IA son las estafas, con un 71% de las respuestas. En segundo lugar se encuentran las deepfakes (69%), seguidos del abuso sexual online a partir de su uso (69%), las alucionaciones que puede llegar a tener respecto al contenido que generan (66%), la privacidad de los datos (62%) y la amplificación de prejuicios (60%).

]]>

Entradas relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *