Le Conseil de supervision exhorte Meta à nouveau à réviser ses règles concernant le contenu généré par l’IA. Cette fois, le conseil estime que Meta devrait créer une règle distincte pour le contenu généré par l’IA, indépendante de sa politique de désinformation, investir dans des outils de détection plus fiables et mieux utiliser les filigranes numériques, entre autres changements.
Les recommandations du groupe découlent d’une vidéo générée par IA publiée l’année dernière qui prétendait montrer des bâtiments endommagés dans la ville israélienne de Haïfa pendant le conflit Israël-Iran en 2025. La vidéo, qui a accumulé plus de 700 000 vues, avait été publiée par un compte se présentant comme un média d’information mais qui était en réalité géré par quelqu’un aux Philippines.
Après que la vidéo a été signalée à Meta, l’entreprise a refusé de la supprimer ou d’ajouter une étiquette « IA à haut risque » qui aurait clairement indiqué que le contenu avait été créé ou manipulé par l’IA. Le Conseil a annulé la décision de Meta de ne pas ajouter l’étiquette « haut risque » et affirme que ce cas met en lumière plusieurs domaines dans lesquels les règles actuelles de l’IA de Meta ne suffisent pas.
« Meta doit faire plus pour s’attaquer à la prolifération de contenus générés par l’IA trompeurs sur ses plateformes, y compris par des réseaux de comptes et de pages inauthentiques ou abusifs, en particulier sur des sujets d’intérêt public, afin que les utilisateurs puissent différencier le réel du faux », a écrit le Conseil dans sa décision. Meta a finalement désactivé trois comptes liés à la page après que le Conseil a signalé des « signaux évidents de tromperie ».
L’une des principales recommandations du Conseil est que Meta crée une règle dédiée au contenu généré par l’IA qui soit distincte de sa politique de désinformation. Selon le Conseil, cette règle devrait inclure des précisions sur la manière et le moment où les utilisateurs sont tenus d’étiqueter le contenu généré par l’IA, ainsi que des informations sur la façon dont Meta sanctionne ceux qui enfreignent la règle.
Le Conseil a également été fortement critique envers la manière dont Meta utilise ses étiquettes actuelles « AI Info », notant que leur application est « ni robuste ni suffisamment exhaustive pour lutter contre l’ampleur et la vitesse du contenu généré par l’IA », surtout en temps de conflit ou de crise. « Un système trop dépendant de l’auto-déclaration de l’utilisation de l’IA et d’un examen approfondi (qui se produit rarement) pour étiqueter correctement ce contenu ne peut pas relever les défis posés dans l’environnement actuel. »
Meta, a déclaré le Conseil, doit également investir dans des technologies de détection plus sophistiquées qui puissent étiqueter de manière fiable les contenus IA, y compris les médias audio et vidéo. Le groupe a ajouté qu’il était « préoccupé » par des rapports selon lesquels l’entreprise « met en œuvre de manière incohérente » les filigranes numériques sur le contenu IA créé par ses propres outils d’IA.
Meta n’a pas répondu immédiatement à une demande de commentaire concernant la décision du Conseil de supervision. L’entreprise dispose de 60 jours pour répondre officiellement à ses recommandations.
La décision n’est pas la première fois que le Conseil critique la gestion par Meta du contenu généré par l’IA. Le groupe a décrit les règles de la société concernant les médias manipulés comme « incohérentes » à deux autres occasions, et l’a critiquée pour sa dépendance à des tiers, y compris des organisations de vérification des faits, pour signaler les contenus problématiques. La dépendance de Meta envers les vérificateurs et d’autres « partenaires de confiance » a de nouveau été évoquée dans ce cas, le Conseil déclarant avoir entendu de la part de ces groupes que Meta « est moins réceptive à l’approche et aux préoccupations, en partie en raison d’une réduction significative des capacités des équipes internes de Meta ». Le Conseil écrit que « Meta devrait être capable de réaliser elle-même de telles évaluations des préjudices, plutôt que de se reposer uniquement sur des partenaires qui les contactent lors d’un conflit armé ».
Bien que la décision du Conseil de supervision concerne une publication de l’année dernière, la question du contenu généré par IA pendant les conflits armés a pris une nouvelle urgence lors du dernier conflit au Moyen-Orient. Depuis le début des frappes des États-Unis et d’Israël sur l’Iran plus tôt ce mois-ci, on a assisté à une forte hausse des informations fausses générées par IA devenues virales sur les réseaux sociaux. Le Conseil, qui a déjà laissé entendre qu’il aimerait collaborer avec des entreprises d’IA générative, a inclus une suggestion qui ne semble pas s’appliquer uniquement à Meta.
« L’industrie a besoin d’une cohérence pour aider les utilisateurs à distinguer le contenu trompeur généré par l’IA et les plateformes devraient s’attaquer aux comptes et pages abusifs qui diffusent ce genre de contenu », a écrit le Conseil.