Publicité numérique et encadrement des algorithmes

Il est urgent de s’intéresser d’une part à l’appréhension des algorithmes par le droit, et d’autre part à l’évolution de l’écosystème de la publicité numérique.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Publicité numérique et encadrement des algorithmes

Publié le 27 janvier 2018
- A +

Par Gola Romain.
Un article de The Conversation

En 2016, le montant de l’investissement publicitaire sur Internet a dépassé, pour la première fois en France, celui de l’investissement publicitaire à la télévision. Or les algorithmes occupent une place de plus en plus importante dans les achats d’espace sur le Web, ce qui pose de nombreuses questions éthiques et législatives.

Montée en puissance des algorithmes

Le marché de la publicité numérique avoisine aujourd’hui les 3,5 milliards d’euros. Alors que jusqu’ici la publicité concernait principalement l’affichage sur les sites web (display) et l’achat de mots-clefs (Google AdWords), l’achat d’espace publicitaire automatisé (qualifié « d’achat programmatique ») a fait son apparition. Le profilage de l’internaute s’effectue grâce ses traces de navigation et permet de prédire, à chaque instant, son intérêt pour une annonce. Il est donc possible de calculer en temps réel, grâce à des algorithmes, une valeur pour l’espace publicitaire présent sur la page qu’il en train de consulter.

L’usage d’algorithmes a pour avantage d’afficher des bannières correspondant à nos intérêts, mais leurs utilisations non contrôlées comportent des risques. En effet, l’opacité de leur fonctionnement impacte les comportements des internautes sans qu’ils n’en aient conscience. Qui plus est, les algorithmes bénéficient parfois d’une confiance exagérée, alors que leurs résultats peuvent être discriminatoires. Se pose ainsi la question de la neutralité et de l’éthique des algorithmes. Cette dernière doit reposer sur la compréhension de la manière dont nous sommes reliés à ces nouvelles technologies. Elle implique de s’intéresser d’une part à l’appréhension des algorithmes par le droit, et d’autre part à l’évolution de l’écosystème de la publicité numérique.

Face à ces nouveaux défis, il serait judicieux de se concentrer non pas sur les données traitées, mais sur les algorithmes eux-mêmes, en mettant en place des systèmes capables de les tester et les contrôler afin d’en prévenir les conséquences dommageables.

Droit et algorithmes : l’Europe réforme

Une nouvelle révolution est en marche, reposant sur la collecte et le traitement de données à une échelle sans précédent, lesquels favorisent l’apparition de nouveaux produits et services. Cette augmentation de la masse et de la diversité des données s’explique notamment par le développement des objets connectés et la montée en puissance des consommateurs (« empowerment »). Leur capacité d’agir s’est en effet accrue avec l’évolution des technologies : les entreprises deviennent de plus en plus dépendantes non seulement des données produites par les consommateurs, mais aussi de leurs avis, et doivent par conséquent veiller constamment à préserver une bonne e-réputation.

Face à cette situation, les institutions européennes ont entamé un processus de réforme de la législation sur les données personnelles. Le nouveau règlement européen relatif à la protection des données (RGPD) entrera en application en mai 2018, dans tous les États membres. Il impose un accroissement de la transparence et la responsabilisation des acteurs traitant des données, selon une logique de conformité à la loi, et prévoit de lourdes sanctions. De même, un droit à la portabilité des données est affirmé, et les responsables de traitements des données à caractère personnel devront assurer des opérations respectant la protection des données personnelles, à la fois dès la conception du produit ou du service (« privacy by design »).

Le RGPD s’efforce d’encadrer implicitement le traitement algorithmique des données. On retrouve cette tendance dans le secteur de la publicité : de manière générale, tous les sites, services et produits utilisant des algorithmes prennent soin de ne pas les nommer et de cacher leur rôle déterminant, préférant utiliser le terme de personnalisation. Or dès qu’il y a de la « personnalisation », il y a le plus souvent de « l’algorithmisation ».

Une législation peu adaptée à la publicité numérique

Le droit de la publicité « classique », repose sur le principe du consentement préalable de la personne au traitement de ses données. Or cette conception de la protection des données devient moins pertinente avec la publicité numérique. En effet, les données recueillies dans le cadre du marketing traditionnel correspondent souvent à des éléments objectifs et relativement stables comme le nom, l’âge, le sexe, l’adresse ou la situation familiale. Or la notion de « donnée » change radicalement en marketing numérique. Sur les réseaux sociaux, il ne s’agit plus seulement de données de qualifications (âge, sexe, adresse), mais aussi de données de la vie quotidienne : ce que j’ai fait, ce que j’écoute…

Les traces de navigation et les comportements des individus sur les réseaux sociaux permettent de déterminer leurs profils.
VisualHunt

Cette nouvelle situation pose la question de la pertinence de la distinction entre données personnelles/non personnelles. Elle interroge aussi sur la pertinence du principe de consentement préalable. Il est en effet souvent quasiment impossible d’utiliser une application sans accepter d’être tracé. Le consentement devient obligatoire à l’usage de la technologie, et l’exploitation réelle qui sera faite des données par le responsable du traitement est totalement opaque. Le problème ne repose donc plus sur la question du consentement préalable au traitement des données mais sur les déductions automatiques et prédictives que font les entreprises ayant capturé ces données.

Les algorithmes accentuent cette tendance en permettant de multiplier la captation et l’exploitation de données triviales, décontextualisées mais susceptibles de contribuer à un profilage précis des individus, et de produire à leur égard un « savoir » fondé sur des probabilités plutôt que sur des certitudes concernant leurs propensions personnelles et intimes. Dans cette situation, ne serait-il pas plus pertinent d’examiner non pas les données qui alimentent les algorithmes, mais plutôt les algorithmes qui les traitent et engendrent de nouvelles données ?

Défis juridiques et éthiques de la publicité en ligne

Orientation des choix des consommateurs, influence subliminale, voire soumission de nature à changer la perception de la réalité : le ciblage comportemental comporte des risques non négligeables. Des exigences de responsabilisation, de transparence et de vérifiabilité des actions résultant des algorithmes deviennent donc essentielles pour prévenir d’éventuelles dérives.

Cette situation interroge la relation entre le droit et l’éthique, malheureusement souvent confuse. Le droit renvoie en effet à la régulation des comportements par la loi – à ce qui est permis, interdit ou exigé d’un point de vue légal – alors que l’éthique renvoie plus largement à la distinction entre le bien et le mal, indépendamment ou au-delà de nos obligations strictement légales. Une éthique appliquée aux traitements algorithmiques devra s’articuler autour de deux grands principes : la transparence, et la mise en place de tests destinés à contrôler les résultats des algorithmes afin de prévenir d’éventuels dommages.

Transparence et responsabilité des algorithmes

Les activités des plates-formes en ligne reposent essentiellement sur la sélection et le classement des informations ainsi que sur des offres de biens ou services. Elles conçoivent et activent divers algorithmes qui orientent les comportements de consommation et les modes de réflexion des utilisateurs. Cette personnalisation est parfois trompeuse, car elle est basée sur la conception que la machine se fait de notre façon de penser. Or cette conception ne repose pas sur ce que l’on est, mais sur ce que l’on a fait, sur ce que l’on a consulté. Ce constat implique une nécessaire transparence : les personnes impactées par un algorithme devraient être informées d’abord de l’existence d’un traitement algorithmique, de ce qu’il implique, du type de données qu’il utilise et à quelles fins, afin de pouvoir, le cas échéant, porter d’éventuelles réclamations.

Vers des tests d’algorithmes ?

Dans le domaine de la publicité, les algorithmes peuvent conduire à différencier les prix d’un produit ou d’un service, voire à établir des typologies d’assurés à risque pour le calcul de la prime d’assurance en fonction de critères parfois illicites, en recoupant des informations « sensibles ». Non seulement la collecte et le traitement de ces données (origines raciales ethniques, opinions politiques, religieuses) sont-ils en principe interdits, mais de plus les résultats de ces manipulations algorithmiques peuvent s’avérer discriminatoires. Les résultats du premier concours de beauté international reposant entièrement sur des algorithmes ont ainsi abouti à la sélection de candidates uniquement blanches.

Pour éviter ce type de dérives, il est urgent de mettre en place des tests de résultats des algorithmes. En complément de la législation et du rôle exercé par les autorités de protection (CNIL), des codes de bonne conduite font également leur apparition : les professionnels de la publicité, regroupés au sein de la Digital Advertising Alliance (DAA), ont ainsi adopté un protocole matérialisé par une icône visible à côté de la publicité ciblée, afin d’en expliquer le fonctionnement.

The ConversationLes entreprises ont tout intérêt à adopter un comportement plus éthique afin de préserver leur bonne réputation, et donc un avantage concurrentiel. On note en effet une lassitude des internautes vis-à-vis de la publicité jugée trop intrusive. Si le but ultime de la publicité est d’anticiper au mieux nos besoins pour « mieux consommer », elle doit s’inscrire dans un environnement respectueux de la législation et surtout se conformer à une innovation responsable et éthique. Celle-ci peut être le vecteur d’une nouvelle révolution industrielle, soucieuse des droits et libertés fondamentaux, où le citoyen est appelé à prendre toute sa place en lui redonnant le pouvoir sur ses données.

Gola Romain, Professeur de droit des affaires, Télécom École de Management – Institut Mines-Télécom

La version originale de cet article a été publiée sur The Conversation.

Voir les commentaires (2)

Laisser un commentaire

Créer un compte Tous les commentaires (2)
  • Cet article est catastrophique, il met en avant des préoccupations de bisounours qui veut changer le monde pour museler les pratiques publicitaires, lesquelles seraient jugées « racistes » par la bien-pensance actuellement dominante.
    – Les algorithmes sont faits par des individus pour des finalités clairement explicitées ici, on comprend mal la volonté de normaliser ces pratiques (qui d’ailleurs sont en constante évolution).
    – En fait, on est face à cette volonté de tout normaliser selon une idéologie dominante, ni plus, ni moins !

  • Un algorithme n’a rien de mystérieux, il ne s’agit ni plus ni moins que d’une recette de cuisine. Ou plus précisément, une recette de cuisine est un exemple d’algorithme. Comme la règle de 3 et la preuve par 9. Ou l’algorithme de Bresenham qui était utilisé pour tracer des segments sur un écran.
    Avoir des informations sur l’implémentation des algorithmes d’IA utilisés par les régies publicitaires n’apporterait rien à personne, vu que sans données ce ne sont que des coquilles vides. Mais ceux que ça intéressent peuvent faire une recherche très simple sur un moteur de recherche et trouver une belle quantité d’exemples. Les mots clés les plus basiques : « réseau neurones github ».

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L'auteur : Yoann Nabat est enseignant-chercheur en droit privé et sciences criminelles à l'Université de Bordeaux

Dans quelle mesure les différentes générations sont-elles plus ou moins sensibles à la notion de surveillance ? Un regard sur les personnes nées au tournant des années 1980 et 1990 montre que ces dernières abandonnent probablement plus facilement une part de contrôle sur les données personnelles, et n’ont sans doute pas eu totalement conscience de leur grande valeur.

Peut-être qu’à l’approche des Jeux olympiques de ... Poursuivre la lecture

Par Stefania Di Stefano.

 

La mort de Nahel, tué par un policier à Nanterre lors d’un contrôle routier le 27 juin 2023, a déclenché en France une série de manifestations violentes qui se sont rapidement étendues à tout le pays et ont même franchi les frontières nationales.

Les réseaux sociaux ont joué un rôle déterminant dans cette affaire. Il n’est donc pas surprenant que ces plateformes soient devenues l’une des cibles des autorités françaises, Emmanuel Macron ayant évoqué la possibilité de couper l’accès aux résea... Poursuivre la lecture

Internet rend toutes vos données publiques et éternelles. Or, chaque donnée peut vous porter préjudice ultérieurement.

Dans cet article, nous examinerons les mesures que vous pouvez prendre pour protéger les données de vos enfants et garantir leur sécurité en ligne.

 

Sensibiliser au risque

Les données alimentent notre traçage sur internet, et parfois des trafics douteux.

On trouve sur internet des reventes massives de comptes Facebook ou Instagram, de cartes bancaires pirates ou des photos illégales. De pl... Poursuivre la lecture

Voir plus d'articles