Les PDG de Meta, TikTok et d’autres médias sociaux témoignent devant le comité sénatorial américain sur l’exploitation des enfants

Ouvrez cette photo dans la galerie :

Linda Yaccarino, PDG de X, regarde Mark Zuckerberg, PDG de Meta, témoigner lors d’une audience de la commission judiciaire du Sénat américain, à Washington, le 31 janvier.BRENDAN SMIALOWSKI/Getty Images

Prédateurs sexuels. Fonctionnalités addictives. Automutilation et troubles de l’alimentation. Des normes de beauté irréalistes. Intimidation. Ce ne sont là que quelques-uns des problèmes auxquels les jeunes sont confrontés sur les réseaux sociaux – et les défenseurs des enfants et les législateurs affirment que les entreprises n’en font pas assez pour les protéger.

Mercredi, les PDG de Meta META-Q, TikTok, X et d’autres sociétés de médias sociaux témoigneront devant la commission judiciaire du Sénat au sujet de l’exploitation des enfants sur leurs plateformes, alors que les législateurs, les familles et les défenseurs sont de plus en plus préoccupés par les effets des médias sociaux sur la vie des jeunes.

L’audience a débuté avec des témoignages enregistrés d’enfants et de parents qui ont déclaré qu’eux-mêmes ou leurs enfants avaient été exploités sur les réseaux sociaux.

« Ils sont responsables de nombreux dangers auxquels nos enfants sont confrontés en ligne », a déclaré le whip de la majorité au Sénat américain, Dick Durbin, qui préside la commission, dans son discours d’ouverture. « Leurs choix de conception, leur incapacité à investir adéquatement dans la confiance et la sécurité, leur recherche constante de l’engagement et du profit plutôt que la sécurité de base ont tous mis nos enfants et nos petits-enfants en danger. »

Dans une démonstration de soutien bipartite, le sénateur de Caroline du Sud Lindsay Graham, le plus haut républicain du panel judiciaire, a fait écho aux sentiments de Durbin et a déclaré qu’il était prêt à travailler avec les démocrates pour résoudre le problème.

« Après des années de travail sur cette question avec vous et d’autres, j’en suis venu à la conclusion suivante : les sociétés de médias sociaux telles qu’elles sont actuellement conçues et fonctionnent sont des produits dangereux », a déclaré Graham.

Il a également déclaré aux dirigeants que leurs plateformes avaient enrichi la vie, mais qu’il était temps de s’attaquer au « côté obscur ».

Alors que le PDG de Meta, Mark Zuckerberg, est un vétéran des audiences au Congrès depuis sa première sur la débâcle de Cambridge Analytica en matière de confidentialité en 2018, ce ne sera que la deuxième fois pour le PDG de TikTok, Shou Zi Chew, et la première pour Linda Yaccarino, la PDG de X.

En commençant par Jason Citron de Discord, les dirigeants ont vanté les outils de sécurité existants sur leurs plateformes et le travail qu’ils ont effectué avec les organisations à but non lucratif et les forces de l’ordre pour protéger les mineurs.

Snapchat avait rompu les rangs avant l’audience et avait commencé à soutenir un projet de loi fédéral qui créerait une responsabilité légale pour les applications et les plateformes sociales qui recommandent des contenus préjudiciables aux mineurs. Le PDG de Snap, Evan Spiegel, a réitéré mercredi le soutien de l’entreprise et a demandé à l’industrie de soutenir le projet de loi.

Chew a déclaré que TikTok était vigilant quant à l’application de sa politique interdisant aux enfants de moins de 13 ans d’utiliser l’application. Yaccarino a déclaré que X, anciennement connu sous le nom de Twitter, ne s’adressait pas aux enfants.

« Nous n’avons pas de secteur d’activité dédié aux enfants », a déclaré Yaccarino. Elle a déclaré que l’entreprise soutiendrait également la loi Stop CSAM, un projet de loi fédéral qui permet aux victimes d’exploitation d’enfants de poursuivre plus facilement les entreprises technologiques.

Mercredi, Zuckerberg a vanté les outils et fonctionnalités existants de Meta conçus pour aider les parents et les adolescents.

Les critiques affirment que les sociétés de médias sociaux ont échoué à plusieurs reprises à protéger les mineurs.

« Lorsque vous êtes confrontés à des décisions très importantes en matière de sécurité et de confidentialité, les revenus nets ne devraient pas être le premier facteur pris en compte par ces entreprises », a déclaré Zamaan Qureshi, coprésident de Design It For Us, une organisation dirigée par des jeunes. coalition plaidant pour des médias sociaux plus sûrs. « Ces entreprises ont eu l’occasion de le faire avant d’échouer. Une réglementation indépendante doit donc intervenir.

Meta sera probablement au centre de l’audience, le géant de la technologie de Menlo Park, en Californie, étant poursuivi en justice par des dizaines d’États qui affirment avoir délibérément conçu des fonctionnalités sur Instagram et Facebook qui rendent les enfants accros à ses plateformes et n’ont pas réussi à les protéger des prédateurs en ligne. .

De nouveaux courriels internes entre dirigeants de Meta publiés par le bureau du sénateur Richard Blumenthal montrent que Nick Clegg, président des affaires mondiales et d’autres, demandent à Zuckerberg d’embaucher davantage de personnes pour renforcer le « bien-être dans l’ensemble de l’entreprise », alors que les inquiétudes grandissent quant aux effets sur la santé mentale des jeunes.

« D’un point de vue politique, ce travail est devenu de plus en plus urgent ces derniers mois. Les politiciens aux États-Unis, au Royaume-Uni, dans l’Union européenne et en Australie expriment publiquement et en privé leurs inquiétudes quant à l’impact de nos produits sur la santé mentale des jeunes », a écrit Clegg dans un e-mail d’août 2021.

Il a écrit que l’entreprise est limitée par un manque d’investissement dans ces efforts, « ce qui signifie que nous ne sommes pas en mesure d’apporter des changements et des innovations au rythme requis pour répondre aux préoccupations des décideurs politiques ». Parmi les domaines problématiques des notes envoyées par courrier électronique figurent l’utilisation excessive, ainsi que l’intimidation, le harcèlement, le suicide et l’automutilation.

Les courriels publiés par le bureau de Blumenthal ne semblent pas contenir de réponse, s’il y en a eu, de Zuckerberg. En septembre 2021, le Wall Street Journal a publié les Facebook Files, son rapport basé sur des documents internes de la lanceuse d’alerte Frances Haugen, qui a ensuite témoigné devant le Sénat.

Clegg à la fin de l’année dernière, proposant un investissement réduit et disant à Zuckerberg que le financement est important pour garantir que l’entreprise puisse soutenir son « récit externe de bien-être sur nos applications ». On ne sait pas s’il y a eu une réponse du PDG.

Mercredi, Zuckerberg devrait vanter les 30 outils et fonctionnalités existants conçus pour aider les parents et les adolescents, selon un témoignage préparé et publié avant l’audience.

L’entreprise a renforcé ses fonctionnalités de sécurité des enfants ces dernières semaines, annonçant plus tôt ce mois-ci qu’elle commencerait à cacher le contenu inapproprié des comptes d’adolescents sur Instagram et Facebook, notamment les publications sur le suicide, l’automutilation et les troubles de l’alimentation. Il a également restreint la capacité des mineurs à recevoir des messages de personnes qu’ils ne suivent pas ou avec lesquelles ils ne sont pas connectés sur Instagram et sur Messenger et a ajouté de nouveaux « nudges » pour tenter de décourager les adolescents de parcourir des vidéos ou des messages Instagram tard dans la nuit. Les coups de pouce encouragent les enfants à fermer l’application, même s’ils ne les y obligent pas.

Mais les critiques et les défenseurs de la sécurité des enfants affirment que ses actions ne constituent pas des changements significatifs qui garantiraient la sécurité des enfants.

« En regardant en arrière chaque fois qu’il y a eu un scandale sur Facebook ou Instagram au cours des dernières années, ils suivent le même modèle. Meta Cherry sélectionne ses statistiques et parle de fonctionnalités qui ne répondent pas aux préjudices en question », a déclaré Arturo Bejar, ancien directeur de l’ingénierie du géant des médias sociaux connu pour son expertise dans la lutte contre le harcèlement en ligne et qui a récemment témoigné devant le Congrès au sujet de la sécurité des enfants sur Les plateformes Meta.

« Instagram promet des fonctionnalités qui finissent par être cachées dans des paramètres que peu de gens utilisent. Pourquoi le « mode silencieux » n’est-il pas le mode par défaut pour tous les enfants ? » Béjar a ajouté. « Meta dit que certains des nouveaux travaux contribueront à des avancées non désirées. Il n’est toujours pas possible pour un adolescent de signaler à Instagram qu’il subit une avance non désirée. Sans ces informations, comment peuvent-ils rendre les choses plus sûres ? »

X, anciennement Twitter, a déclaré que sa PDG Linda Yaccarino était à Washington la semaine dernière pour rencontrer des sénateurs afin de discuter de la manière dont l’entreprise lutte contre l’exploitation sexuelle des enfants, ainsi que d’un large éventail d’autres sujets, notamment la confidentialité, l’intelligence artificielle, la modération du contenu et la désinformation. .

YouTube de Google est notamment absent de la liste des entreprises convoquées mercredi au Sénat. Et ce, même si, selon le Pew Research Center, plus d’enfants utilisent YouTube que toute autre plateforme. Pew a constaté que 93 pour cent des adolescents américains utilisent YouTube, suivi de loin par TikTok avec 63 pour cent.

« Le problème avec YouTube, c’est qu’il passe inaperçu », a déclaré Larissa May, fondatrice et directrice exécutive de l’organisation à but non lucratif #HalfTheStory, qui aide les adolescents à développer des relations saines avec la technologie. « Je pense que Meta s’est tellement habituée à subir autant de pression pour les problèmes auxquels les jeunes sont confrontés. Mais c’est en réalité bien plus important que cela.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *