Il n’est pas secret que le contenu généré par l’IA ait envahi nos fils d’actualité sur les réseaux sociaux en 2025. Désormais, le directeur général d’Instagram, Adam Mosseri, a clairement indiqué qu’il s’attend à ce que le contenu IA dépasse les images non IA et les implications importantes que ce déplacement aura pour ses créateurs et photographes.
Mosseri a partagé ces réflexions dans un long post sur les grandes tendances qu’il prévoit de façonner Instagram en 2026. Et il a offert une évaluation particulièrement franche sur la façon dont l’IA bouleverse la plateforme. « Tout ce qui rendait les créateurs importants — la capacité d’être vrai, de se connecter, d’avoir une voix qui ne pouvait pas être faussée — est désormais soudainement accessible à quiconque dispose des outils adéquats », a-t-il écrit. « Les fils d’actualité commencent à se remplir de tout ce qui est synthétique. »
Mais Mosseri ne semble pas particulièrement préoccupé par ce changement. Il affirme qu’il y a « beaucoup de contenu IA étonnant » et que la plateforme pourrait avoir besoin de repenser sa façon d’étiqueter ces images en « apposant une empreinte numérique sur les médias réels, et non pas en poursuivant uniquement les contenus faux ».
De la part de Mosseri (avec l’accentuation sur ses propos) :
Les plateformes de médias sociaux vont être soumises à une pression croissante pour identifier et étiqueter le contenu généré par l’IA comme tel. Toutes les grandes plateformes feront du bon travail pour identifier le contenu IA, mais elles deviendront moins efficaces avec le temps à mesure que l’IA s’améliorera dans l’imitation de la réalité. Il existe déjà un nombre croissant de personnes qui croient, comme moi, qu’il sera plus pratique d’apposer une empreinte numérique sur les médias réels que sur les médias faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de leur capture, créant une chaîne de traçabilité.
D’une certaine façon, il est facile de comprendre pourquoi cela semble être une approche plus pratique pour Meta. Comme nous l’avons déjà rapporté, les technologies destinées à identifier le contenu généré par l’IA, comme les filigranes, se sont révélées peu fiables au mieux. Elles sont faciles à enlever et encore plus faciles à ignorer entièrement. Les propres étiquettes de Meta manquent cruellement de clarté et l’entreprise, qui a dépensé des dizaines de milliards de dollars dans l’IA cette année seulement, a reconnu qu’elle ne peut pas détecter de manière fiable le contenu généré par l’IA ou manipulé sur sa plateforme.
Le fait que Mosseri admette aussi facilement la défaite sur cette question est révélateur. Le désordre de l’IA a gagné. Et lorsqu’il s’agit d’aider les 3 milliards d’utilisateurs d’Instagram à comprendre ce qui est réel, cela devrait en grande partie être le problème de quelqu’un d’autre, pas celui de Meta. Les fabricants d’appareils — probablement les fabricants de téléphones et les véritables fabricants — devraient proposer leur propre système qui ressemble beaucoup à une empreinte numérique pour « vérifier l’authenticité au moment de la capture ». Mosseri donne peu de détails sur le fonctionnement ou la mise en œuvre à l’échelle nécessaire pour que cela soit faisable.
Mosseri n’aborde pas non plus réellement le fait que cela risque d’aliéner de nombreux photographes et autres créateurs d’Instagram qui se sont déjà montrés frustrés par l’application. Le dirigeant reçoit régulièrement les plaintes du groupe qui veut savoir pourquoi l’algorithme d’Instagram ne met pas systématiquement en avant leurs publications auprès de leurs abonnés.
Mais Mosseri suggère que ces plaintes découlent d’une vision dépassée de ce qu’est Instagram. Le flux « poli » d’images carrées, affirme-t-il, est « mort ». Les fabricants d’appareils — probablement les fabricants de téléphones et les véritables fabricants — parient sur une esthétique qu’il juge erronée en essayant de « faire ressembler tout le monde à un photographe professionnel d’autrefois ». Au lieu de cela, dit-il, des images plus « brutes » et peu flatteuses seront la manière pour les créateurs de prouver qu’ils sont réels, et non IA. Dans un monde où Instagram contient plus de contenu IA que de contenu non IA, les créateurs devraient privilégier des images et des vidéos qui les font intentionnellement paraître mal.