Le Digital Services Act prévoit de nombreuses mesures, graduées selon les acteurs en ligne en fonction de la nature de leurs services et de leur taille. Les très grandes plateformes et les très grands moteurs de recherche sont soumis à des exigences plus strictes. Tous les acteurs en ligne vont devoir désigner un point de contact unique ou, s'ils sont établis hors UE, un représentant légal et coopérer avec les autorités nationales en cas d'injonction. Les autres obligations peuvent être classées en trois catégories.
Lutte contre les contenus illicites
Les plateformes en ligne doivent proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites. Une fois le signalement effectué, elles doivent rapidement retirer ou bloquer l'accès au contenu illégal. Dans ce cadre, elles coopèrent avec des "signaleurs de confiance". Ce statut est attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications sont traitées en priorité.
Les market places (tels Aibnb ou Amazon) doivent mieux tracer les vendeurs qui proposent des produits ou services sur leur plateforme (recueil d'informations précises sur le professionnel avant de l'autoriser à vendre, vérification de la fiabilité de celles-ci) et mieux en informer les consommateurs.
Transparence en ligne
Les plateformes doivent rendre plus transparentes leurs décisions en matière de modération des contenus. Elles doivent prévoir un système interne de traitement des réclamations permettant aux utilisateurs dont le compte a été suspendu ou résilié (par exemple sur un réseau social) de contester cette décision. Pour régler le litige, les utilisateurs peuvent également se tourner vers des organismes indépendants et certifiés dans les pays européens ou saisir leurs juges nationaux.
Les plateformes doivent par ailleurs expliquer le fonctionnement des algorithmes qu'elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs. Les très grandes plateformes et les très grands moteurs de recherche doivent proposer un système de recommandation de contenus non-fondé sur le profilage et mettre à disposition du public un registre des publicités contenant diverses informations (qui a parrainé l’annonce, comment et pourquoi elle cible tels individus...).
La publicité ciblée pour les mineurs devient interdite pour toutes les plateformes, de même que la publicité basée sur des données sensibles comme les opinions politiques, la religion ou l’orientation sexuelle (sauf consentement explicite).
Les interfaces trompeuses connues sous le nom de "pièges à utilisateurs" (dark patterns) et les pratiques visant à induire les utilisateurs en erreur (mise en avant de certains choix...) sont prohibées.
Atténuation des risques et réponse aux crises
Les très grandes plateformes et les très grands moteurs de recherche jouent un rôle très important et influent sur la sécurité en ligne, la diffusion de l'information, la formation de l'opinion publique et les transactions économiques. C'est pourquoi d'autres mesures leurs sont imposées, proportionnées aux risques sociétaux qu’ils représentent lorsqu’ils diffusent des contenus illicites ou préjudiciables, comme la désinformation. Ces grands acteurs doivent désormais :
- analyser tous les ans les risques systémiques qu'ils génèrent (sur la haine et la violence en ligne, les droits fondamentaux, le discours civique, les processus électoraux, la santé publique...) et prendre les mesures nécessaires pour atténuer ces risques (respect de codes de conduite, suppression des faux comptes, visibilité accrue des sources d'information faisant autorité...) ;
- effectuer tous les ans des audits indépendants de réduction des risques, sous le contrôle de la Commission européenne ;
- fournir les algorithmes de leurs interfaces à la Commission et aux autorités nationales compétentes ;
- accorder un accès aux données clés de leurs interfaces aux chercheurs pour qu'ils puissent mieux comprendre l'évolution des risques en ligne ;
- mieux protéger les mineurs en ligne.
Un mécanisme de réaction aux crises touchant la sécurité ou la santé publique est enfin prévu. La Commission européenne va pouvoir demander aux grands acteurs une analyse des risques que posent leurs interfaces lorsqu'une crise émerge (comme lors de l'agression russe contre l'Ukraine) et leur imposer pendant un temps limité des mesures d’urgence.