Internet ha dejado de considerarse una oportunidad para formar parte del problema. Una oportunidad para vender en cualquier parte del mundo, prestar atención médica remota o acceder a una lista casi inabarcable de conocimientos, transformando completamente la educación, la sanidad, la industria o la forma en la que se relacionan las personas. Pero como toda revolución, también ha traído consigo nuevos dilemas éticos, regulatorios y de seguridad. En este caso, en forma de deepfakes, desinformación o usos fraudulentos del contenido que se comparte en línea.
La evolución de la IA generativa y su adopción ha venido a acrecentar esta dicotomía. Por un lado, por la revolución que se le presupone en todos los ámbitos y, por otro, por el aumento de la desconfianza que está generando hacia Internet y los contenidos digitales. En este contexto, cobra sentido la Coalición para la Procedencia y la Autenticidad de Contenido o C2PA (por sus siglas en inglés), un proyecto de la Joint Development Foundation que fue fundado hace tres años por influyentes empresas tecnológicas y medios de comunicación –Adobe, Arm, BBC, Intel, Microsoft y Truepic- precisamente para combatir el contenido engañoso y devolver la confianza en Internet.
¿En qué trabaja la Coalición para la Procedencia y la Autenticidad de Contenido?
La C2PA busca crear un estándar técnico que permita a editores, creadores y consumidores verificar la autenticidad y la procedencia del contenido producido o retocado con inteligencia artificial (imágenes, audios, documentos…).
Establecer la procedencia de los medios se ha convertido hoy en día en algo fundamental porque el rápido avance de la tecnología, sumado a la avalancha de contenido digital y a su rápida viralización ha provocado que el contenido real sea, en muchas ocasiones, indistinguible del generado artificialmente.
La especificación C2PA proporciona a las plataformas una herramienta para definir qué información está asociada a cada tipo de activo, cómo se presenta y almacena y cómo se puede identificar la evidencia de la manipulación.
Como estándar abierto, está diseñado para ser adoptado por cualquier software, dispositivo o plataforma en línea, así como por organismos reguladores y agencias gubernamentales.
La idea es que el contenido generado por IA tenga una etiqueta similar a las nutricionales que muestran los alimentos, pero en lugar de describir los ingredientes, señale de dónde proviene el contenido y quién lo creó. De esta manera, el consumidor podrá tomar una decisión conociendo su procedencia, al igual que puede entrar en una tienda, ver qué ingredientes tiene un producto y decidir si lo compra o no.
La C2PA se basa en la criptografía para codificar detalles sobre los orígenes de un contenido, aportando información de procedencia. Su objetivo, proteger la información contra la manipulación.
En comparación con otras técnicas como marcas de agua o los sistemas de detección de IA, proporciona un enfoque más estandarizado y, según promete, más difícil de eludir, además de que puede funcionar de manera complementaria con otras herramientas de detección. Su efectividad, sin embargo, está en duda. Primero porque depende de la participación de los creadores de contenido y de que su adopción se lleve a cabo de forma generalizada por todo el ecosistema de Internet, en especial, por las redes sociales. Segundo, porque algunos desarrolladores ven en esta solución más problemas de los que intenta resolver, siendo su punto débil la facilidad de modificar o eliminar los metadatos.
Por el momento, Google, Meta o Open AI se han unido recientemente a la Coalición para la Procedencia y Autenticidad de Contenido, que ya cuenta con más de un centenar de miembros, y han anunciado que implementarán medidas para identificar los contenidos creados con IA.