Le conseil de surveillance de Meta qualifie d’« incohérente » la règle du deepfake de la société mère de Facebook

Le comité de surveillance META-Q de Meta a déterminé qu’une vidéo Facebook suggérant à tort que le président américain Joe Biden est un pédophile ne violait pas les règles actuelles de l’entreprise, tout en jugeant ces règles « incohérentes » et trop étroitement axées sur le contenu généré par l’IA.

Le conseil d’administration, financé par Meta mais géré de manière indépendante, s’est saisi de l’affaire de la vidéo Biden en octobre en réponse à une plainte d’un utilisateur concernant une vidéo modifiée de sept secondes du président publiée sur le réseau social phare de Meta.

Sa décision de lundi est la première à s’attaquer à la politique de « médias manipulés » de Meta, qui interdit certains types de vidéos falsifiées, dans un contexte d’inquiétudes croissantes quant à l’utilisation potentielle des nouvelles technologies d’IA pour influencer les élections de cette année.

La politique « manque de justification convaincante, est incohérente et prête à confusion pour les utilisateurs, et ne précise pas clairement les dommages qu’elle cherche à prévenir », a déclaré le conseil d’administration.

Le conseil d’administration a suggéré à Meta de mettre à jour la règle pour couvrir à la fois le contenu audio et vidéo, que l’IA soit utilisée ou non, et d’appliquer des étiquettes l’identifiant comme manipulé.

Il n’est pas allé jusqu’à demander que la politique s’applique aux photographies, avertissant que cela pourrait rendre la politique trop difficile à appliquer à l’échelle de Meta.

Meta, qui possède également Instagram et WhatsApp, a informé le conseil d’administration au cours de l’examen qu’elle prévoyait de mettre à jour la politique « pour répondre à l’évolution d’une nouvelle IA de plus en plus réaliste », selon la décision.

La société a déclaré lundi dans un communiqué qu’elle réexaminait la décision et qu’elle répondrait publiquement dans les 60 jours.

Le clip sur Facebook a manipulé des images réelles de Biden échangeant des autocollants « J’ai voté » avec sa petite-fille lors des élections américaines de mi-mandat de 2022 et l’embrassant sur la joue.

Les versions du même clip vidéo modifié ont commencé à devenir virales dès janvier 2023, a indiqué le conseil d’administration.

Dans sa décision, le Conseil de surveillance a déclaré que Meta avait eu raison de laisser la vidéo en ligne en vertu de sa politique actuelle, qui interdit les vidéos modifiées de manière trompeuse uniquement si elles ont été produites par l’intelligence artificielle ou si elles donnent l’impression aux gens de dire des mots qu’ils n’ont jamais réellement prononcés.

Le conseil a déclaré que le contenu non modifié par l’IA « est répandu et pas nécessairement moins trompeur » que le contenu généré par les outils d’IA.

Il a déclaré que la politique devrait également s’appliquer au contenu uniquement audio ainsi qu’aux vidéos montrant des personnes faisant des choses qu’elles n’ont jamais réellement faites.

L’application, a-t-il ajouté, devrait consister à appliquer des étiquettes au contenu plutôt que l’approche actuelle de Meta consistant à supprimer les publications de ses plateformes.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *