L'Union européenne intensifie la réglementation des plateformes de médias sociaux, avec l'intention de se concentrer sur la répression des fonctionnalités de « conception addictive » dans des applications telles que TikTok et Instagram qui ciblent les mineurs. La présidente de la Commission européenne, von der Leyen, a déclaré mardi lors du sommet européen « L'intelligence artificielle et les enfants » au Danemark que l'UE prendrait des mesures contre la plateforme plus tard cette année et promouvrait la mise en œuvre des réglementations pertinentes.

Von der Leyen a pointé du doigt l'UE pour avoir pris des mesures contre le « design addictif » de TikTok, qui inclut des fonctionnalités telles que le défilement sans fin, la lecture automatique et les notifications push continues. Elle a également déclaré que le même problème existe également sur Instagram et Facebook, propriété de Meta. Ces plateformes sont considérées comme n’ayant pas réussi à faire respecter efficacement leur propre âge minimum de 13 ans. Elle a souligné que l'UE enquêtait sur les plateformes qui envoient les enfants dans un « terrier de contenu préjudiciable », comme les vidéos faisant la promotion de troubles de l'alimentation tels que l'anorexie ou l'automutilation.
Pour renforcer la protection des mineurs en ligne, la Commission européenne a également développé sa propre application de vérification de l'âge, qui, selon von der Leyen, répond aux « normes de confidentialité les plus élevées au monde ». L'application sera disponible pour que les États membres l'intègrent dans leurs portefeuilles numériques respectifs, tandis que le processus de vérification de l'âge sera facilement accessible et exécuté via une plateforme en ligne. "Il n'y a plus d'excuses : la technologie de vérification de l'âge est là", a-t-elle déclaré. La Commission européenne pourrait avoir une proposition juridique prête dès cet été et attend actuellement les soumissions de son groupe d'experts spécial sur la sécurité en ligne des enfants.
Cette série de mises à niveau réglementaires sur les questions de sécurité des enfants sur les plateformes sociales s’inscrit dans le contexte du « durcissement global de la réglementation » de l’Union européenne à l’égard des géants technologiques américains. Au cours de l'année écoulée, l'Union européenne a infligé successivement des amendes totalisant plus de 7 milliards de dollars à un certain nombre de grandes entreprises technologiques sur la base des lois antitrust et sur la concurrence, provoquant le mécontentement aux États-Unis. Certains responsables ont averti que l’UE pourrait ainsi rater certaines opportunités économiques dans le domaine de l’intelligence artificielle. Le président américain Donald Trump tente de contrer ces sanctions contre les entreprises américaines. Des entreprises telles qu'Apple, Meta et Google ont toutes été condamnées à de lourdes amendes pour avoir prétendument enfreint les réglementations européennes et ont déposé des objections.
En février de cette année, Trump a signé un mémorandum présidentiel proposant d'envisager d'imposer des tarifs douaniers et d'autres méthodes pour « lutter contre les taxes sur les services numériques, les amendes et les politiques injustes associées imposées par des gouvernements étrangers à l'encontre des entreprises américaines ». Parallèlement, l'Union européenne a également lancé une enquête plus tôt cette année sur X (anciennement Twitter) d'Elon Musk, suite à des allégations selon lesquelles le chatbot Grok de la plateforme aurait généré et distribué des images pornographiques non consensuelles de femmes et d'enfants.
La surveillance juridique entourant la sécurité des mineurs sur les réseaux sociaux s’intensifie partout dans le monde. En mars, un procès très médiatisé aux États-Unis a statué que certaines caractéristiques de conception de Meta et de YouTube, notamment le défilement infini et la lecture automatique, encourageaient un comportement addictif chez les adolescents et nuisaient à leur santé mentale. Récemment, une enquête préliminaire menée par la Commission européenne a également révélé que Meta n'avait pas réussi à empêcher efficacement les mineurs de moins de 13 ans d'accéder à sa plateforme. Les mineurs pouvaient facilement contourner les mécanismes de détection existants et ont donc enfreint les exigences pertinentes de la loi européenne sur les services numériques.
Outre les initiatives prises au niveau européen, certains pays tentent d’aller plus loin. En décembre de cette année, l'Australie est devenue la première à mettre en œuvre une « interdiction totale » des médias sociaux pour les personnes de moins de 16 ans, interdisant aux mineurs d'utiliser les plateformes sociales grand public. Des pays européens comme l’Espagne, la France et le Royaume-Uni font également pression pour une législation similaire, prévoyant d’isoler autant que possible les enfants et les adolescents des médias sociaux en augmentant les seuils d’âge, en forçant la vérification de l’identité ou en restreignant directement l’accès. Sous de multiples pressions réglementaires, des plateformes telles que TikTok et Instagram pourraient devoir à l’avenir procéder à des ajustements en profondeur de la conception de leurs produits de base afin de se conformer aux normes plus élevées de l’Union européenne et d’autres pays en matière de protection en ligne des enfants.