En la era de la IA generativa, los deepfakes erosionan la confianza en noticias, elecciones y marcas cotidianas. El nuevo informe de Microsoft, “Media Integrity and Authentication: Status, Directions, and Futures”, evalúa métodos de autenticación actuales, sus limitaciones y vías para fortalecerlos, ayudando a los usuarios a discernir contenido real de manipulado.
¿Qué impulsó el estudio?
La motivación es doble: el auge de IA poderosa que complica distinguir auténtico de deepfake, y la necesidad de tecnologías que generen más beneficio que daño. Dirigido por Jessica Young, co-chair y directora de política científica en Microsoft, busca informar a creadores, tecnólogos y policymakers sobre avances y retos futuros.
¿Qué lograron y qué aprendieron?
Propone “high-confidence authentication” combinando C2PA con marcas de agua imperceptibles para mayor fiabilidad en procedencia. Analiza ataques sociotécnicos, donde manipulaciones sutiles engañan validadores, y enfatiza durabilidad en entornos variados, desde dispositivos seguros a offline.
¿Por qué verificar medios digitales es tan difícil?
No hay solución única: formatos variados (imágenes, audio, video, texto) tienen trade-offs, y opiniones divergen sobre transparencia y privacidad. Todos los métodos son complementarios pero limitados, sin ser infalibles.
¿Hacia dónde vamos?
La procedencia segura gana relevancia para editores, gobiernos y empresas que certifican contenido auténtico. Investigación continua en usabilidad es clave para evitar malentendidos.
Para empresas, este informe ofrece una solución: implementa C2PA y marcas de agua para certificar medios propios, protegiendo marcas contra deepfakes y fomentando confianza en comunicaciones digitales.
Fuente: Microsoft




