YouTube refuerza la transparencia en IA con nuevos requisitos de divulgación para creadores que suben contenido realista generado con herramientas de inteligencia artificial. Esta actualización tiene como objetivo combatir la desinformación etiquetando deepfakes y medios manipulados.
YouTube está implementando nuevas medidas para mejorar la transparencia en cuanto al contenido creado con herramientas de IA generativa (inteligencia artificial). Ahora, los creadores deberán divulgar cuando sus cargas contengan contenido con apariencia real generado con IA. Esta divulgación tiene como objetivo mitigar la propagación de desinformación a través de deepfakes y medios manipulados.
La plataforma ha introducido una nueva casilla dentro del Estudio de Creadores. Al subir contenido, los creadores deben seleccionar esta casilla si el contenido está «alterado o sintético y parece real.» Esta selección activa la visualización de un marcador en el video, alertando a los espectadores de que las imágenes no son auténticas.
Según YouTube, la nueva etiqueta está diseñada para:
- Fortalecer la transparencia con los espectadores
- Fomentar la confianza entre creadores y audiencias
Ejemplos de contenido que requiere divulgación incluyen:
- El uso de semejanzas realistas de personas
- Modificaciones a imágenes de eventos o lugares del mundo real
- La generación de escenas realistas, pero ficticias
Es importante tener en cuenta que no todo el uso de IA requiere divulgación. Las nuevas reglas no se aplican a:
- Guiones generados por IA o elementos de producción
- Contenido claramente irrealista (por ejemplo, animación)
- Ajustes de color, efectos especiales y filtros de belleza
Sin embargo, cualquier contenido que pueda inducir a error a los espectadores requiere una etiqueta. YouTube se reserva el derecho de agregar una etiqueta si se detecta el uso de medios sintéticos o manipulados en una carga sin la debida divulgación.
Esta iniciativa representa el último paso en el compromiso de YouTube con la transparencia en IA. En 2023, la plataforma implementó requisitos iniciales para la divulgación del uso de IA a través de etiquetas para los usuarios. Esta actualización se basa en esos esfuerzos al introducir pautas más estrictas para la transparencia con contenido simulado.
La creciente prevalencia de contenido generado por IA hace necesarias estas medidas. Incidentes de confusión causados por imágenes manipuladas, especialmente en campañas políticas, resaltan el potencial de mal uso. A medida que la tecnología de IA continúa evolucionando, la capacidad para distinguir contenido genuino de contenido generado por IA probablemente se vuelva más desafiante.
Aunque las reglas de divulgación proporcionan a las plataformas un mecanismo de cumplimiento, su efectividad a largo plazo sigue siendo incierta. Se están explorando soluciones como el marcaje digital para ayudar a las plataformas a identificar contenido generado por IA. Sin embargo, tales métodos pueden no ser infalibles, especialmente en casos donde los usuarios comparten o vuelven a grabar contenido de IA, potencialmente eludiendo los mecanismos de detección.
A medida que la tecnología de IA generativa avanza, especialmente en la generación de videos, diferenciar entre contenido real y artificial se volverá cada vez más difícil. Reglas de divulgación, como las implementadas por YouTube, son cruciales en la lucha contra la desinformación. Sin embargo, el desarrollo continuo en el campo de la IA requiere la exploración de soluciones adicionales para garantizar el uso responsable de esta poderosa tecnología.
En Grupo MET podemos ayudarte a implementar esta y muchas mas herramienta para optimizar tu trabajo. ¡Contáctanos para saber más!