Entrée en vigueur du Digital Services Act européen : vers des contenus en ligne plus responsables ?

Alors que nous passons tous de plus en plus de temps en ligne, enfants et adolescents compris, comment peut-on être certains que nos droits et libertés fondamentaux y sont respectés ? C’est l’objectif du Digital Services Act..

 

Le Digital Services Act européen, ou règlement sur les services numériques, est entré en vigueur le 25 août 2023 pour 19 très grandes plateformes et deux moteurs de recherche. Ces entreprises avaient en effet quatre mois pour se conformer à ce nouveau règlement, depuis le 25 avril 2023.
Découvrons aujourd’hui quelles sont les entreprises concernées par ce cadre législatif et les obligations qu’apporte ce nouveau règlement pour nous assurer des contenus plus responsables

Quelles entreprises sont concernées ? 

Comme indiqué en introduction, 19 très grandes plateformes en ligne et 2 moteurs de recherche sont déjà concernés par le règlement. Il s’agit de services qui réunissent chacun plus de 45 millions d’utilisateurs mensuels : Alibaba AliExpress, Amazon Store, Apple Appstore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X (anciennement Twitter), Wikipedia, YouTube et Zalando. Les deux moteurs de recherche devant également respecter le règlement sont Google et Bing.

À partir du 17 février 2024, le règlement concernera tous les acteurs suivants : 

  • Les fournisseurs d’accès à internet (FAI) : Orange, SFR, Free, etc.
  • Les hébergeurs web et services cloud : Amazon Web services, OVH, Microsoft Azure, etc.
  • Les plateformes en ligne regroupant vendeurs et consommateurs telles que les marketplaces (places de marché), les boutiques d’applications, les plateformes de l’économie collaborative, les réseaux sociaux, 
     

Que couvre ce nouveau règlement ?

Par la mise en place de nouvelles obligations, le règlement a pour objectif de : 

  • Lutter contre les contenus illicites en facilitant le signalement par les utilisateurs
  • Augmenter la transparence dans la modération de contenus, notamment dans le fonctionnement des algorithmes.
  • Donner plus d’informations et de choix à l’utilisateur concernant son contenu : plus d’options de contrôle et de personnalisation
  • Protéger les mineurs notamment en assurant leur confidentialité et leur sécurité, ainsi que leur santé physique et mentale (notamment avec une tolérance zéro pour la publicité ciblant les enfants et adolescents).
  • Lutter contre la désinformation et la manipulation électorale (deep fake, publicité politique, etc.)
     

Quelles sanctions encourues et quels moyens de contrôle ?

Les très grandes plateformes encourent des amendes allant jusqu’à 6% de leur chiffre d’affaires mondial, une surveillance renforcée et même une interdiction temporaire d’exercer leurs activités sur le marché unique de l’UE en cas de violations graves répétées qui menacent la vie ou la sécurité des personnes.

La surveillance et le contrôle de l’application des mesures du règlement seront partagés entre la Commission Européenne et les Etats membres, par le biais de coordinateurs pour les services numériques (DSC), qui pourront s’appuyer sur le centre européen pour la transparence algorithmique (ECAT) créé en avril 2023.

En conclusion, le Digital Services Act vise à assurer le respect de nos droits et libertés fondamentaux sur internet : ce qui est illégal hors ligne l’est également en ligne.

Reste à savoir si les mécanismes de contrôle et de sanctions mis en place permettront d’atteindre les objectifs affichés de contenus en ligne plus éthiques et plus responsables.