La course pour trouver une meilleure façon d’étiqueter l’IA
Un protocole Internet appelé C2PA utilise la cryptographie pour étiqueter les images, la vidéo et l'audio.
Cet article est tiré de The Technocrat, le bulletin hebdomadaire de politique technologique du MIT Technology Review sur le pouvoir, la politique et la Silicon Valley. Pour le recevoir dans votre boîte mail tous les vendredis, inscrivez-vous ici.
J'ai récemment écrit une courte histoire sur un projet soutenu par certaines grandes entreprises technologiques et médiatiques essayant d'aider à identifier le contenu créé ou modifié par l'IA.
Avec l’essor des textes, images et vidéos générés par l’IA, les législateurs et les internautes moyens réclament plus de transparence. Bien que cela puisse sembler une demande très raisonnable d'ajouter simplement une étiquette (ce qui est le cas), ce n'est pas en réalité une tâche facile, et les solutions existantes, comme la détection et le filigrane basés sur l'IA, présentent de sérieux pièges.
Comme l’a écrit ma collègue Melissa Heikkilä, la plupart des solutions techniques actuelles « n’ont aucune chance face à la dernière génération de modèles de langage d’IA ». Néanmoins, la course à l’étiquetage et à la détection du contenu généré par l’IA est lancée.
C'est là qu'intervient ce protocole. Lancé en 2021, C2PA (du nom du groupe qui l'a créé, la Coalition for Content Provenance and Authenticity) est un ensemble de nouvelles normes techniques et de code disponible gratuitement qui étiquette en toute sécurité le contenu avec des informations précisant d'où il vient. depuis.
Cela signifie qu'une image, par exemple, est marquée d'informations par l'appareil d'où elle provient (comme l'appareil photo d'un téléphone), par des outils d'édition (tels que Photoshop) et, finalement, par la plateforme de médias sociaux sur laquelle elle est téléchargée. Au fil du temps, ces informations créent une sorte d’historique, qui est entièrement enregistré.
La technologie elle-même – et la manière dont C2PA est plus sécurisé que les autres alternatives d’étiquetage de l’IA – est plutôt intéressante, bien qu’un peu compliquée. J'en parle davantage dans mon article, mais il est peut-être plus facile d'y penser comme une étiquette nutritionnelle (ce qui est l'analogie préférée de la plupart des personnes avec qui j'ai parlé). Vous pouvez voir un exemple de vidéo deepfake ici avec le label créé par Truepic, membre fondateur du C2PA, avec Revel AI.
"L'idée de provenance consiste à marquer le contenu de manière interopérable et inviolable afin qu'il puisse circuler sur Internet avec cette transparence, avec cette étiquette nutritionnelle", explique Mounir Ibrahim, vice-président des affaires publiques chez Truepic.
Lors de son lancement, le C2PA était soutenu par une poignée d'entreprises de premier plan, dont Adobe et Microsoft, mais au cours des six derniers mois, le nombre de ses membres a augmenté de 56 %. Cette semaine encore, la principale plateforme médiatique Shutterstock a annoncé qu'elle utiliserait C2PA pour étiqueter tous ses médias générés par l'IA.
Il est basé sur une approche facultative, de sorte que les groupes qui souhaitent vérifier et divulguer la provenance du contenu, comme un journal ou un annonceur, choisiront d'ajouter les informations d'identification à un média.
L'un des responsables du projet, Andy Parsons, qui travaille pour Adobe, attribue le nouvel intérêt et l'urgence autour du C2PA à la prolifération de l'IA générative et à l'attente d'une législation, tant aux États-Unis que dans l'UE, qui imposera de nouveaux niveaux de transparence. .
La vision est grandiose : les personnes impliquées m’ont admis que le véritable succès ici dépend d’une adoption généralisée, voire universelle. Ils ont déclaré espérer que toutes les grandes sociétés de contenu adopteront la norme.
Pour cela, dit Ibrahim, la convivialité est la clé : « Vous voulez vous assurer que peu importe où il va sur Internet, il sera lu et ingéré de la même manière, un peu comme le cryptage SSL. C’est ainsi que vous développez un écosystème en ligne plus transparent.
Cela pourrait constituer une évolution cruciale à l’heure où nous entrons dans la saison électorale américaine, alors que tous les regards seront rivés sur la désinformation générée par l’IA. Les chercheurs du projet affirment qu'ils se précipitent pour publier de nouvelles fonctionnalités et courtiser davantage de plateformes de médias sociaux avant l'assaut attendu.
Actuellement, le C2PA travaille principalement sur les images et les vidéos, même si les membres affirment travailler sur des moyens de gérer le contenu textuel. J'aborde certaines des autres lacunes du protocole dans cet article, mais ce qu'il est vraiment important de comprendre, c'est que même lorsque l'utilisation de l'IA est divulguée, cela ne peut pas enrayer les méfaits de la désinformation générée par la machine. Les plateformes de médias sociaux devront toujours décider si elles souhaitent conserver ces informations sur leurs sites, et les utilisateurs devront décider eux-mêmes s’ils doivent faire confiance au contenu et le partager.