Microsoft, Meta, Google, Amazon, IBM, Adobe et Chip Designer Arm ont tous signé l'accord. Les startups d'intelligence artificielle OpenAI, Anthropic et Stability AI ont également rejoint le groupe aux côtés de sociétés de médias sociaux comme Snap, TikTok et X.
Les plateformes technologiques se préparent à une grande année d’élections à travers le monde qui affecteront plus de quatre milliards de personnes dans plus de 40 pays. Selon les données de la société d’apprentissage automatique Clarity, l’essor du contenu généré par l’IA a suscité de sérieuses inquiétudes quant à la désinformation liée aux élections.
Pendant ce temps, les technologies de détection et de filigrane utilisées pour identifier les deepfakes n’ont pas progressé assez vite pour suivre le rythme.
La nouvelle de l'accord intervient un jour après que le développeur de ChatGPT, OpenAI, a annoncé Sora, son nouveau modèle de vidéo générée par l'IA. Sora fonctionne de manière similaire à DALL-E, l'outil d'IA de génération d'images d'OpenAI. Lorsqu'un utilisateur saisit la scène souhaitée, Sora renvoie un clip vidéo haute définition. Sora peut créer des clips vidéo inspirés d'images fixes, étendre des vidéos existantes ou remplir des images manquantes.
Les entreprises participant à l'accord ont accepté huit engagements de haut niveau, notamment l'évaluation des risques liés aux modèles, la « recherche de la détection » et la gestion de la distribution de tels contenus sur leurs sites, et la transparence de ces processus envers le public. Comme la plupart des obligations volontaires dans l'industrie technologique et au-delà, indique le communiqué, les obligations ne s'appliquent que « lorsqu'elles sont pertinentes pour les services fournis par chaque organisation ».
« La démocratie dépend d'élections sûres et sécurisées », a déclaré Kent Walker, responsable des affaires mondiales de Google, dans un communiqué. L’accord représente un effort de l’industrie pour adopter « la désinformation électorale générée par l’IA qui sape la confiance ».
Christina Montgomery, responsable de la confidentialité et de la confiance chez IBM, a déclaré dans le communiqué que cette année électorale cruciale « nécessite des actions concrètes et collaboratives pour protéger les personnes et les communautés des risques amplifiés liés aux contenus trompeurs générés par l'IA ».
Voir: OpenAI publie Sora