Les algorithmes d’IA qui influencent le monde

La plupart des grands sites ont un fonctionnement basé sur des algorithmes de recommandation.

Le fil Twitter est calculé pour chaque internaute (on en parle ici par exemple).

Même chose pour Facebook, ou Youtube, ou encore pour les résultats de recherche de Google (qui sont donc contextualisés, pour chaque internaute).

C’est aussi le cas d’Amazon, et de Netflix (c’est aussi le cas de tous les marchands qui utilisent une solution de personnalisation comme Target2Sell bien sûr… C’est donc un sujet qui me concerne tout particulièrement).

Comme on passe beaucoup de temps sur ces services, on peut donc dire qu’on voit beaucoup de contenus recommandés par ces algorithmes.

Alors, quel est l’impact de ces technologies sur notre société ?

Je n’ai pas d’idée “conspirationniste” (du moins je ne pense pas 😉 ) : Je ne crois pas que les éditeurs aient des idées de “manipulation”. Ces algorithmes ont tous été développés avec un objectif d’efficacité, pas pour d’autres obscures raisons.

Ces objectifs sont forcément un peu différents en fonction de l’éditeur : 

  • Vendre plus pour Amazon ;
  • Proposer des vidéos qui vont nous intéresser pour Youtube, et faire qu’on va “consommer plus” de vidéos ;

Globalement, les algorithmes de recommandations sont là pour détecter automatiquement nos centres d’intérêts, et nous proposer des choses qu’on va souhaiter acheter, voir, entendre ou lire.

Alors, où est le problème ? 

On peut toucher du doigt ce problème avec Youtube. Je l’ai vécu personnellement :

Un de mes centres d’intérêt est l’espace et la conquête spéciale. J’ai eu la surprise que Youtube me suggère des vidéos sur la magnifique théorie de la terre plate.

En l’occurence, cela m’a intéressé : comment peut on croire une telle chose ? Je trouve ça fascinant…

Mais en creusant un peu plus, je me suis rendu compte que je n’étais pas un cas isolé : les algorithmes de Youtube ont automatiquement créé des liens entre “l’intérêt pour l’espace” et la théorie de la terre plate… Et je ne vous parle pas des recommandations pour les vidéos expliquant que l’homme n’avait jamais marché sur la Lune.

Si cela n’a pas eu d’influence sur ma vision de l’univers (mais ça a influencé ma perception de la nature humaine !), j’ai appris depuis que la communauté des “platistes” avait été boostée par ces algorithmes (on en parle ici par exemple) ! 

Si on extrapole un peu, on peut dire que ces algorithmes aident au développement d’idées conspirationnistes. 

Mais pourquoi les algo de Youtube font ils ces recommandations, ces associations ?

Il faut, pour répondre à cette question, se pencher un peu plus sur leur fonctionnement.

Les algorithmes sont tous plus ou moins basés sur les mêmes principes (on prend l’exemple pour Youtube, mais l’exemple est facile à transposer pour d’autres services) : 

  • On commence par collecter les données de navigation de tous les internautes sur le site. Par exemple, pour chaque visiteur :
    • Les vidéos vues, et l’ordre dans lequel ces vidéos sont vues (“je vois A puis B”) ;
    • les vidéos vues en fonction des recherches (“je cherche C et je regarde A”).
  • On fait tourner des algorithmes d’Intelligence Artificielle, pour “apprendre” à partir de cette base de données. Cela permet de comprendre, notamment, quels sont les liens les plus forts entre les vidéos (“quand un internaute voit A, très souvent, il aimera B”). Cet apprentissage est plus ou moins contextualisé (“quand je vois A, et qu’avant, j’ai vu plusieurs vidéos de telle thématique, j’aimerai sans doute B”). Cela permet de constituer une base de connaissance, construite à partir de ce que font les internautes.
  • Ensuite, quand l’internaute arrive sur le site, l’algorithme utilise cette base de connaissances et le contexte de l’internaute (son historique, ses goûts) pour recommander les vidéos qui ont le plus de chance de l’intéresser.

Un tel système est en perpétuelle évolution : l’algorithme “apprend” tout seul s’il fait du bon boulot (“est-ce que l’internaute regarde les vidéos que j’ai recommandées ?”) et s’adapte aux évolutions (nouveaux centres d’intérêts par exemple).

Donc il n’y a pas d’intervention humaine pour créer des liens entre l’intérêt pour l’espace et les théories conspirationnistes. Si les algo de Youtube ont créé ces liens, c’est qu’ils doivent fonctionner, quelque soit la motivation de l’internaute pour le contenu (intérêt curieux, critique, ethnologique, …).

Depuis, Youtube essaye de modérer cela, et doit mettre de l’humain justement pour limiter les recommandations de contenus “louches”.

En synthèse :

  • Les algorithmes de recommandation travaillent de manière automatique ;
  • Le suggestions de contenus sont basés sur des calculs de probabilités (les contenus ayant le plus de probabilité de plaire à chacun) 
  • On peut effectivement dire que ces algo ont une réelle influence sur le contenu qu’on voit.

Cela me fait un peu penser à la métaphore de l’eau pour le capitalisme : l’argent va, comme l’eau, là où elle coule naturellement, sans idée de morale, de bien ou de mal. Le capitalisme n’est donc pas fondamentalement immoral, il est amoral.

Pour les algorithmes de recommandations, c’est un peu pareil : les algorithmes poussent des contenus qui ont le plus de probabilité d’être intéressants pour l’internaute. Il n’y a pas de morale : pas d’idée politique, pas de volonté de manipulation, juste la recherche de performance.

Au final, je pense que ces technologies sont indispensables pour rendre améliorer la qualité des services en ligne. Ce qui pose réellement problème, c’est la centralisation des services internet : Youtube, Facebook, Twitter, Amazon, Google, et pas la technologie de recommandation.

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *