Meta poursuivie en justice aux États-Unis pour exploitation du cerveau d’enfants

Meta-poursuivie-en-justice-aux-Etats-Unis-pour-exploitation-du-cerveau

Meta-poursuivie-en-justice-aux-Etats-Unis-pour-exploitation-du-cerveau

Le 24 octobre 2023, une coalition de 32 procureurs généraux américains a intenté une action en justice fédérale contre Meta, la société mère de Facebook, Instagram et WhatsApp. C’est le résultat d’une enquête à l’échelle américaine annoncée en 2021. Ce procès intervient après des années de recherches empiriques révélant le caractère nocif des réseaux sociaux, et en particulier les spécificités des plateformes de médias sociaux de Meta.[1] S’appuyant à la fois sur des recherches scientifiques substantielles et sur des sources internes révélées par la lanceuse d’alerte Frances Haugen en 2021, les procureurs généraux développent des arguments élaborés pour alléguer que Meta a exploité de jeunes utilisateurs à des fins lucratives et n’a pas respecté la loi fédérale sur la protection de la vie privée en ligne des enfants (COPPA).

Le procès met en lumière la recherche de l’entreprise en matière d’engagement des utilisateurs et son impact sur le bien-être des jeunes utilisateurs. Il se concentre sur les fausses déclarations présumées de Meta quant à la sécurité de ses plateformes et sur sa connaissance du caractère addictif et nocif de certaines fonctionnalités de ces plateformes, en particulier pour les jeunes utilisateurs. Il allègue que les pratiques de Meta violent la COPPA et constituent des actes déloyaux et trompeurs en vertu des lois de différents États américains. Les procureurs généraux demandent une injonction et d’autres recours prévus par les lois étatiques et fédérales.

L’exploitation des jeunes utilisateurs par Meta à des fins lucratives

Afin de maximiser les profits, le modèle commercial de Meta se concentre sur la monétisation des informations et de l’attention des utilisateurs en augmentant l’engagement sur ses plateformes, afin d’augmenter la diffusion efficace de publicités ciblées. Selon le procès, Meta cherchait à attirer et à fidéliser les jeunes utilisateurs sur ses plateformes de médias sociaux, en exploitant leurs vulnérabilités psychologiques. Selon des documents internes cités dans le procès, Meta est allé jusqu’à quantifier l’importance de la valeur de ses jeunes utilisateurs pour l’entreprise en termes de valeur à vie, qui est définie comme le profit total cumulé attendu par Meta d’un utilisateur : «La valeur à vie d’un adolescent de 13 ans est d’environ 270 $ par adolescent.»

S’appuyant sur des documents et des communications internes, la poursuite expose les efforts présumés de Meta pour augmenter le temps passé sur ses plateformes de médias sociaux en mettant en œuvre des fonctionnalités conçues pour capter l’attention des utilisateurs et les maintenir engagés sur les plateformes. Ces caractéristiques submergent la sensibilité à la dopamine qui existe dans le cerveau en développement des jeunes utilisateurs ; Selon le procès, l’effet des mécanismes induisant l’utilisation est cumulatif car ils agissent de concert, créant une boucle de rétroaction qui fait partie intégrante du modèle commercial actuel de Meta. Ces fonctionnalités sont, entre autres, la recommandation et le séquençage algorithmiques, l’affichage public et la quantification de mesures d’engagement telles que les mentions J’aime, les filtres de manipulation d’images de visage et de corps, les alertes audiovisuelles et haptiques perturbatrices, les formats de défilement et de lecture automatique infinis et la représentation éphémère du contenu social.

Par exemple, en matière de recommandation algorithmique et de séquençage, les algorithmes de recommandation de Meta affichent du contenu aux jeunes utilisateurs grâce à une méthode de séquençage désignée par les psychologues sous le nom de «programmes de renforcement variables » ou « barèmes de récompenses variables» qui tendent à manipuler la sensibilité dopaminergique des jeunes consommateurs et à les conduire à l’addiction.

En ce qui concerne les alertes audiovisuelles et haptiques perturbatrices, Instagram envoie des notifications aux smartphones des jeunes utilisateurs, ce qui, comme Meta le sait, augmente le temps et la fréquence avec lesquels les jeunes utilisateurs interagissent avec Instagram. Ces notifications sont perturbatrices pour tous les utilisateurs mais sont particulièrement intrusives et nuisibles pour les jeunes utilisateurs, particulièrement vulnérables à la distraction et à la manipulation psychologique. Les documents internes de l’entreprise décrivent la stratégie de Meta pour poursuivre «Croissance des adolescents« par »tirer parti de la tolérance plus élevée des adolescents aux notifications pour favoriser la rétention et l’engagement.» Meta sait que lorsque davantage de notifications sont envoyées aux utilisateurs, l’engagement des utilisateurs augmente.

Le procès allègue que, bien que Meta ait adopté des outils dits de « gestion du temps », en réalité, ces outils ne peuvent pas contrecarrer efficacement la puissance écrasante de fonctionnalités telles que le défilement infini, la lecture automatique et d’autres fonctionnalités induisant une utilisation. Par exemple, la limite quotidienne est considérée comme ayant été conçue pour que l’utilisateur puisse facilement ignorer la notification et recommencer à utiliser Instagram sans entrave.

Divers méfaits sont allégués : dépendance, faible estime de soi, troubles de l’alimentation et dysmorphie corporelle, dépression, préjudices physiques comme notamment le manque de sommeil et la dysphorie.

Enfin, le procès expose la connaissance de Meta de la disparité entre le discours public sur la sécurité et les enquêtes et études internes dont la haute direction de l’entreprise était au courant, mais manifestement ignorée.

Le non-respect par Meta du cadre juridique applicable, y compris la COPPA

La COPPA protège la vie privée des enfants de moins de 13 ans en exigeant que les entreprises technologiques obtiennent le consentement éclairé et vérifiable des parents avant de collecter les informations personnelles des enfants en ligne. La COPPA définit le terme « consentement parental vérifiable » comme suit : «tout effort raisonnable […] pour s’assurer qu’un parent d’un enfant soit informé des pratiques de collecte, d’utilisation et de divulgation de renseignements personnels de l’exploitant, et autorise« il »avant que ces informations ne soient collectées auprès de cet enfant» (article 9 de la loi).

Le procès accuse Meta de ne pas avoir respecté la COPPA en collectant illégalement les données personnelles d’utilisateurs de moins de 13 ans sans obtenir le consentement parental vérifiable, tant sur Instagram que sur Facebook, avec des détails sur de nombreux cas de connaissance par Meta d’utilisateurs mineurs sur ses plateformes. et l’incapacité de l’entreprise à prendre des mesures pour exclure (ou obtenir le consentement de) ces utilisateurs. Le procès indique en détail que Meta n’essaie pas d’obtenir le consentement parental vérifiable, tandis que ses propres dossiers révèlent qu’elle sait réellement qu’Instagram et Facebook ciblent et inscrivent avec succès des enfants en tant qu’utilisateurs.

En outre, sur la base du comportement de Meta décrit ci-dessus, chaque État allègue, en vertu de ses lois respectives, que Meta s’est livrée à des pratiques trompeuses et déloyales en dénaturant la sécurité et le caractère addictif de ses plateformes de médias sociaux, en ciblant les jeunes utilisateurs et en omettant de divulguer des contenus préjudiciables et manipulateurs. fonctionnalités.fonctionnalités. Par exemple, la conduite de Meta constituerait des actes de fraude à la consommation dans des États comme l’Arizona, le New Jersey et l’Illinois ; et/ou des actes injustes dans des États tels que le Nebraska et Hawaï ; ou encore une concurrence déloyale comme pour l’État de Californie, en vertu de l’article 17200 du Californian Business and Professions Code.

Que se passe-t-il ensuite ?

Cette démarche s’appuie sur de nombreuses études empiriques, notamment dans le domaine de la psychologie et plus largement des sciences sociales, qui continueront à alimenter le débat sur la protection des mineurs en ligne (et sur la manière dont la réglementation peut les protéger au mieux contre les préjudices en ligne). L’affaire soulève également des questions intéressantes sur la fiabilité et le caractère pratique de la vérification de l’âge. Parmi les différentes méthodes, parmi lesquelles le consentement parental, l’auto-déclaration, la biométrie et l’identification numérique, aucune ne semble adaptée pour le moment. Schématiquement, plus la méthode est sécurisée, moins elle est pratique. Il est intéressant de noter que le Comité européen de la protection des données a récemment exprimé des doutes quant à l’efficacité des mesures de vérification de l’âge mises en place par TikTok, le concurrent de Meta, sur la base de l’exigence du RGPD en matière de protection des données dès la conception (article 25), estimant que la limite d’âge déployé par TikTok pour empêcher les enfants utilisateurs de moins de 13 ans d’accéder à la plateforme pourrait être facilement contourné.

Les législateurs européens semblent disposés à s’attaquer au problème par le biais de la réglementation plutôt que par le biais de litiges. Le 25 octobre 2023, l’IMCO du Parlement européen a exhorté la CE à combler les lacunes existantes et à présenter une nouvelle législation pour lutter contre les caractéristiques de conception addictives de certains services numériques, notant que la DSA, la loi sur les données et la prochaine loi sur l’IA ne suffisent pas à réglementer la question de la dépendance. conception addictive. Ces instruments juridiques contiennent déjà des dispositions contre les dark patterns, entendus comme des pratiques manipulatrices qui poussent les consommateurs vers des décisions potentiellement préjudiciables, empêchant les plateformes en ligne de fausser ou d’altérer l’autonomie, la prise de décision ou le choix des utilisateurs.

La Commission européenne mène actuellement une évaluation du nouvel agenda du consommateur, analysant si des actions supplémentaires sont nécessaires pour garantir un niveau égal d’équité en ligne et hors ligne ; cela inclut les besoins spécifiques de certains groupes de consommateurs, y compris les mineurs. La version finale est attendue au deuxième trimestre 2024.


[1] Voir, par exemple, cité au ¶508 du procès : Jonathan Haidt & Jean Twenge, Social Media and Mental Health: A Collaborative Review (manuscrit non publié, archivé auprès de l’Université de New York), disponible sur tinyurl.com/SocialMediaMentalHealthReview (dernière visite en décembre .18, 2023); Jacqueline Nesi et al., Manuel sur l’utilisation des médias numériques chez les adolescents et la santé mentale, Cambridge Univ. Presse (2022).