Instagram abandonne la chasse aux deepfakes — Mosseri veutsignerles médias authentiques : révolution ou danger ?
Instagram veut « signer » les médias authentiques : ce que ça change face à l’IA
Adam Mosseri, le patron d’Instagram, propose une idée ambitieuse : plutôt que de tenter d’identifier parfaitement les contenus générés par l’IA, la plateforme voudrait mettre en place un système de « fingerprinting » pour certifier les médias authentiques. En clair, Instagram envisage de marquer les contenus provenant de sources vérifiables afin d’aider les utilisateurs à distinguer plus facilement ce qui est produit par des médias humains et ce qui pourrait être manipulé ou synthétisé.
Pourquoi Mosseri abandonne l’idée d’identifier toutes les IA ?
L’enthousiasme autour des outils de détection automatique a rapidement rencontré une limite technique et pratique : distinguer sans erreur les images, vidéos ou textes générés par l’IA devient de plus en plus difficile. Les modèles d’IA s’améliorent continuellement et certains contenus synthétiques peuvent être quasiment indiscernables d’un contenu réel. Plutôt que de poursuivre une course perdue d’avance contre une technologie en évolution rapide, Mosseri propose d’inverser la logique : certifier l’authenticité plutôt que traquer la fausseté.
Comment fonctionnerait le fingerprinting des médias authentiques ?
L’idée consiste à donner aux véritables organes de presse, aux producteurs de médias et aux créateurs identifiés la possibilité d’« apposer » un marqueur vérifié sur leurs contenus. Ce marquage permettrait aux utilisateurs d’Instagram de reconnaître que tel article, telle photo ou telle vidéo est produite par une source reconnue et non altérée. Techniquement, cela peut prendre la forme d’une signature numérique ou d’un enregistrement dans un registre de confiance géré par la plateforme.
Les avantages attendus
Les limites et les questions soulevées
Si la proposition paraît séduisante, elle pose aussi de nombreux défis pratiques et éthiques. Qui décidera des critères d’authentification ? Quels médias seront considérés comme « vrais » ou « fiables » ? Le risque d’exclusion des petits créateurs ou des médias indépendants, qui n’ont pas les ressources pour intégrer un système de certification, est réel. De plus, un label officiel pourrait être perçu comme un sceau d’autorité, susceptible d’être critiqué pour partialité ou centralisation.
Impact sur la lutte contre la désinformation
Le fingerprinting pourrait devenir un outil utile dans la boîte à outils contre la désinformation : en mettant en avant les contenus signés, la plateforme donne un repère aux utilisateurs. Toutefois, cela ne résout pas le problème des contenus trompeurs produits par des acteurs malintentionnés qui exploitent des comptes non certifiés, ou des médias légitimes qui publient néanmoins des informations partielles ou erronées.
Conséquences pour les créateurs et les éditeurs
Vers une plateforme plus « responsable » ou plus contrôlée ?
La proposition de Mosseri s’inscrit dans une tendance plus large : les plateformes cherchent des mécanismes pour préserver la confiance sans devoir tout réguler à la source. Le choix de promouvoir la certification des sources plutôt que la détection systématique des deepfakes est pragmatique. Mais il s’agit d’un équilibre délicat entre transparence, protection contre les abus et respect de la diversité des voix en ligne.
Ce que vous pouvez attendre en pratique
Pourquoi cette approche intéresse les geeks et les technophiles
Pour la communauté geek, cette nouvelle donne est intéressante sur deux plans : technique et sociétal. Techniquement, imaginer et implémenter un système de fingerprinting fiable pose des défis en cryptographie, en gestion d’identités numériques et en architecture distribuée. Sociétalement, cela relance la réflexion sur la manière dont les plateformes façonnent l’information et influencent les comportements en ligne. À suivre de près pour quiconque se passionne pour les innovations numériques et leur impact sur la société.