Pourquoi Google trie de plus en plus les résultats

Alors que certains internautes s’amusent à détourner les résultats de recherche mis en avant par Google, le moteur de recherche a décidé de retirer les réponses farfelues. Que se cache-t-il derrière ce phénomène ?

Partager sur:
Sauvegarder cet article
Aimer cet article 0
google By: :D - CC BY 2.0

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Pourquoi Google trie de plus en plus les résultats

Publié le 20 août 2022
- A +

Qui est le roi des États-Unis ? Jusqu’à il y a peu on pouvait lire Obama dans les premiers résultats de recherche en anglais. Alors que certains internautes s’amusent à détourner les résultats de recherche mis en avant par Google, le moteur de recherche a décidé de retirer les réponses farfelues. Que se cache-t-il derrière ce phénomène ?

 

Manipulation des résultats de recherche : késako

Le développement du web 2.0, qu’on appelle aussi web participatif, a profondément remanié notre usage d’internet, mais aussi notre rapport à l’information. Malheureusement, certaines personnes pas toujours bien intentionnées manipulent les résultats de recherche et la navigation en créant par exemple des articles erronés avec mots-clés très recherchés, ou usent d’autres méthodes susceptibles d’induire les internautes en erreur.

Cette méthode a un nom. Il s’agit de l’astroturfing. Cette technique peut prendre de multiples formes, de la simple dissimulation de son appartenance à une société tout en prétendant apporter un témoignage indépendant, jusqu’à des formes plus complexes, utilisant des logiciels qui multiplient de fausses identités sur Internet. L’astroturfing aurait par exemple été utilisé en décembre 2012 en Corée du Sud dans le cadre d’une campagne de diffamation visant à écarter un candidat, avec 24 millions de tweets.

 

La manipulation des résultats est en théorie interdite

Le 20 novembre 2018, la France a adopté une Loi contre la manipulation de l’information, qui vise à mieux protéger la démocratie contre les diverses formes de diffusion intentionnelle de fausses nouvelles.

En matière commerciale, la publication d’un faux avis est certes incomparable avec la tentative de manipulation de politique publique, mais la pratique n’en demeure pas moins illégale.

À ce titre un « faux commentaire » est passible d’une amende pouvant atteindre 300 000 euros et deux ans d’emprisonnement. L’entreprise quant à elle risque une amende pouvant atteindre 10 % de son chiffre d’affaires.

 

Il n’existe pas de résultat neutre dans un moteur de recherche

Existe-t-il un moteur de recherche qui ne censurerait pas son contenu ?

Beaucoup de moteurs de recherche prétendent offrir des résultats de recherche impartiaux et non filtrés. On peut notamment citer : StartPage, Swisscows, Qwant, Infinity Search, Gibiru, BoardReader, Searx ou encore DuckDuckGo.

Malheureusement il est très difficile de déterminer si cela est réellement vrai car il y a toujours des biais technologiques et des stratégies qui influent in fine sur les résultats de recherche. Par exemple, depuis l’invasion russe en Ukraine, DuckDuckGo déclasse désormais les sites qui seraient associés à la désinformation russe. Des internautes assimilent ce changement à de la censure.

 

Transparence des algorithmes, fausse bonne idée ?

Finalement, alors que les algorithmes sont de plus en plus impliqués dans des décisions qui affectent nos vies, leurs décisions peuvent être biaisées.

C’est la raison pour laquelle certains politiques appellent à la transparence des algorithmes. C’est dans ce contexte qu’un projet de loi aux États-Unis, le « Algorithmic Accountability Act of 2022 » vise à contraindre l’État et de grosses entreprises à soumettre leurs algorithmes à une batterie de contrôles pour déceler d’éventuels biais.

Attention toutefois aux solutions trop radicales car cette transparence peut aussi avoir l’effet inverse. D’abord, les algorithmes peuvent être copiés ce qui est contraire au principe de propriété et d’innovation, mais il serait aussi encore plus facile de manipuler ses résultats.

 

Éduquer : une solution indispensable pour lutter contre la manipulation

Comme le souligne la chercheuse Aurélie Jean, il ne sera peut-être jamais possible d’éradiquer complètement les biais des algorithmes (ni leurs corollaires).

En revanche on peut aller plus loin dans le domaine de l’explicabilité qui vise à justifier le plus précisément possible un résultat donné par un modèle. C’est aussi une affaire de comportement et de responsabilité collective. Il convient en effet de rappeler que la liberté d’expression est une liberté fondamentale dans notre société et en la matière, les restrictions apportées doivent être justifiées, adaptées et proportionnelles.

Dans une démocratie, ce n’est ni à l’État ni aux moteurs de recherche de dire si une information est vraie ou fausse.

 

Un cercle vertueux du vice

Comme le remarque le journaliste Thomas Huchon interviewé par Radio France  :

« Ce sont ces fake news qui nous font le plus réagir ».

Grâce aux algorithmes qui les mettent toujours plus en avant, « elles sont dans une espèce de cercle vertueux du vice ».

Nous ne devrions pas tout attendre des plateformes. En revanche on devrait faciliter l’accès au juge à toute personne intéressée pour faire cesser la diffusion d’une fausse information. Du point de vue de la liberté d’expression, la solution la plus durable et la plus soutenable pour repérer une manipulation ou une fausse information passe par l’éducation des jeunes et des moins jeunes. Cela suppose de prendre du recul, de faire preuve d’esprit critique, d’analyser objectivement l’information avant de partager tout ce qu’on peut lire sur Internet. Nous ne sommes pas algorithmes !

Voir les commentaires (5)

Laisser un commentaire

Créer un compte Tous les commentaires (5)
  • C’est vrai qu’à Radio France ils savent bien ce que c’est de manipuler l’information….
    La manière de présenter une information peut devenir de la désinformation.
    Si ma liberté d’expression me permet de dire que je pense que l’information diffusée par Radio France est une information d’État présenté par une majorité de journalistes socialistes, et que cette liberté n’est pas restreinte tout va bien. Mais où est la limite entre une information manipulée et une fake News? Pendant la Covid les exemples n’ont pas manqué…

  • L’Astrosurfing est connu depuis longtemps, à titre d’exemple la vente du club Med à Fosun en 2015, des tribunes manipuler par les chinois ont été dirigés contre Bonomi, malgré cela l’AMF a annoncé la conformité de l’opération. L’auteur argumente sur le web 2.0, actuellement avec la digitalisation, ils en sont au 4.01

  • ca reste un outil imparfait qui tente de trier des millions de resultats possibles . comme tout outil il faut savoir le manier et prendre soin lors de la formulation de la recherche . et heureusement qu il a google pour nous affranchir de nos medias grand public de ……

    • Absolument. Il m’est arrivé de taper sur un clou avec une clé à molette, faute de marteau.
      Il faut être un peu plus attentif à ses doigts, et si l’on n’est pas énervé par l’écoute simultanée de Radio France, ça le fait très bien.

  • Tout le problème vient de la puissance que l’information a acquise en deux siècles et demi. Pendant les moments les plus chauds de la révolution de 1789 la presse a été multipliée par mille et sont apparues de très nombreux feuillets distribués entre autre dans les tavernes diffusant des information délétères sur la royauté que le bon peuple s’est dépêché de diffuser de bouche à oreille.

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Par Scott Shackford. Un article de Reason

Un document de travail récemment publié prétend montrer que les vastes lois sur la confidentialité des technologies mises en œuvre par l'Union européenne en 2018 ont considérablement étouffé l'innovation des apps et potentiellement privé les consommateurs de produits utiles.

Le rapport a été publié par le National Bureau of Economic Research, et il tente de calculer les effets sur les consommateurs du Règlement général sur la protection des données (RGPD), une loi de l'Union européenn... Poursuivre la lecture

log4shell
1
Sauvegarder cet article

Cet article est disponible en podcast ici.

Ce 10 décembre, une faille de sécurité baptisée log4shell et touchant la brique logiciel log4j a été découverte. Dès lors, des millions de serveurs, y compris ceux d’Apple, Google, Amazon ou Tesla devenaient piratables.

Cette faille montre comment, sans même commettre d’erreur en programmation, une faille critique peut apparaître. Elle montre aussi l’énorme château de cartes que représente chaque application informatique.

Log4shell : une faille ne reposant sur aucune erreur ... Poursuivre la lecture
facebook algorithme
0
Sauvegarder cet article

Par Jean Cardinal. Un article de The Conversation

Le mot algorithme est utilisé couramment dans la presse pour désigner le fonctionnement opaque des moteurs de recherche et des réseaux sociaux.

Mais de quoi parlons-nous exactement ? Qu’est-ce qu’un algorithme ? Cette notion a traversé l’histoire, depuis Euclide jusqu’aux algorithmes des GAFAM. Les algorithmes peuvent-ils résoudre n’importe quel problème ? Quelles garanties avons-nous sur leur comportement ? Quels sont leurs impacts sociétaux ?

Au IXe siècle, en Perse Premiè... Poursuivre la lecture
Voir plus d'articles