De nouvelles réglementations concernant les plateformes en ligne sont désormais en vigueur à l’approche des élections européennes de 2024. Près de 365 millions d’électeurs seront appelés aux urnes en juin prochain. Parmi lesquels, de nombreux jeunes qui s’informent principalement, voire exclusivement, via les réseaux sociaux. La situation au sein de l’UE a considérablement évolué en cinq ans face aux menaces d’ingérence et de campagnes de désinformation. En 2019, les règles relatives à la lutte contre la désinformation étaient moins nombreuses. Mais depuis, les États membres et l’UE ont renforcé leur arsenal législatif, y compris en intégrant l’intelligence artificielle.
TikTok sous les projecteurs
TikTok est en train de transformer le paysage malgré le rôle antérieur des plateformes pendant la campagne électorale de 2019. Il y a cinq ans, Facebook et X (anciennement Twitter) étaient déjà très populaires, mais TikTok a rapidement gagné en importance avec plus de 150 millions d’utilisateurs mensuels en Europe aujourd’hui. Selon un rapport du Service de recherche du Parlement européen, le taux de participation aux élections de 2019 a atteint 50,6 %, largement grâce à la mobilisation des jeunes par le biais de campagnes parlementaires menées sur les réseaux sociaux. TikTok, qui compte de nombreux jeunes utilisateurs, pourrait jouer un rôle central une fois de plus.
Néanmoins, la Commission européenne et le Parlement ont recommandé d’interdire TikTok sur les téléphones professionnels pour des raisons de cybersécurité. Ils ont également « fortement recommandé » aux eurodéputés et à leurs assistants de désinstaller TikTok de leurs appareils personnels. Certains groupes politiques, comme les sociaux-démocrates, continuent d’utiliser l’application pour leurs campagnes. Cependant, les préoccupations croissantes concernant la sécurité et la protection des données, soulevées récemment, ont changé la donne. La Commission a ouvert deux enquêtes de conformité liées à la protection des enfants en ligne en février et en avril, dans le cadre de la réglementation de l’UE sur les plateformes.
🇪🇺 FLASH – La Commission européenne demande à ses salariés de supprimer #TikTok au plus vite de leurs téléphones professionnels et personnels. (Euractiv)
— Mediavenir (@Mediavenir) February 23, 2023
Une réglementation européenne sur l’intelligence artificielle (IA)
L’Europe est le premier continent à réglementer l’IA. Sa loi vise à imposer des règles strictes aux systèmes d’apprentissage automatique à haut risque, et ajoute des exigences de transparence pour les outils d’IA générative tels que ChatGPT. La loi sur l’IA entrera en vigueur en juin. Légèrement trop tard pour avoir un impact sur les élections européennes. Néanmoins, la prise de conscience des risques liés à ces outils s’est accrue. Selon des enquêtes, les électeurs de l’UE sont de plus en plus préoccupés par l’impact de l’IA sur les processus démocratiques. Notamment sa capacité à accroître la diffusion de fausses informations et de deepfakes. Rendant difficile la distinction entre le réel et l’illusoire.
Microsoft, Google et Meta se sont engagés à empêcher l’ingérence de l’IA dans les élections via un accord présenté à Munich. Le président de Microsoft, Brad Smith a notamment déclaré : « Alors que la société bénéficie des avantages de l’IA, nous avons la responsabilité de veiller à ce que ces outils ne soient pas utilisés comme des armes lors des élections ». Ainsi, les grandes plateformes en ligne devront utiliser des filigranes pour garantir aux utilisateurs que les informations relatives aux processus électoraux sont officielles. Meta, tout comme TikTok indique qu’ils incluent déjà des filigranes pour les images créées avec IA.
Un meilleur encadrement de la désinformation
Les plateformes en ligne comptant plus de 45 millions d’utilisateurs mensuels sont désormais obligées de prendre des mesures contre la désinformation et la manipulation des élections. Ces règles ont déjà commencé à s’appliquer en août dernier. Les entreprises doivent également mettre en place des outils de modération des contenus. Qui incluent la possibilité de contester les décisions lorsque le contenu des utilisateurs est supprimé ou restreint. Ainsi qu’une transparence accrue pour les utilisateurs concernant les conditions d’utilisation et la manière dont les algorithmes recommandent le contenu.
Cependant, des organisations à but non lucratif ont indiqué dans une étude publiée ce mois-ci, que les plateformes en ligne ne fournissent pas suffisamment d’informations sur l’influence rémunérée et les publicités commerciales à l’approche des élections européennes de juin. Ils s’interrogent également sur le manque de modérateurs de contenu pour certaines langues de l’UE. Comme le maltais, le néerlandais et l’estonien. Remettant ainsi en cause la capacité des plateformes à réellement mettre fin à la désinformation dans ces pays. De plus, le DSA ne contient aucune information sur la manière dont les langues non officielles de l’UE sont modérées.
