2022
févr.
17

Moteurs de recherche : des algorithmes sans contrôle en quête de compréhension ?

Article publié dans le Mediadoc N°27 de décembre 2021

Eric Bruillard, Université de Paris, Education, Discours, Apprentissages (EDA)

Des algorithmes dans notre vie quotidienne

Le mot « algorithme » fait figure d’épouvantail depuis quelques années, sorte de monstre malveillant tirant les ficelles derrière les applications offertes sur les smartphones. Pourtant, la notion d’algorithme est très ancienne (voir par exemple, « Histoire d’algorithmes » [1]) et correspond simplement à une suite finie et non ambiguë d’instructions et d’opérations permettant de résoudre une classe de problèmes [2].

Elle est d’abord associée aux mathématiques et le mot lui-même viendrait d’un mathématicien persan du IXe siècle nommé Al-Khwârizmî [3]. Les élèves de maternelle y sont familiarisés. Ainsi, ils construisent des objets selon une règle, par exemple en élaborant un collier avec des billes de différentes couleurs et des successions à respecter, ce qui les prépare notamment à la notion de numération. Les techniques opératoires qu’ils apprennent à l’école primaire, comme l’addition et la soustraction, sont des algorithmes qui transforment les nombres dans leur écriture décimale. Notons également un algorithme littéraire, celui que Georges Perec a écrit pour la revue L’Enseignement programmé, paru en décembre 1968 : « L’art et la manière d’aborder son chef de service pour lui demander une augmentation », adapté ensuite pour le théâtre sous le titre L’augmentation. Cet algorithme est brillamment développé, décrivant les différentes actions à mener pour obtenir l’augmentation convoitée [4].

Un peu plus tard, au moment de l’enseignement de la programmation, divers auteurs cherchaient à montrer que, comme Monsieur Jourdain faisait de la prose sans le savoir, nous suivons tous des algorithmes sans en avoir conscience : en effet nous effectuons des séquences d’actions avec quelques formes de contrôles avec « tant que » ou « jusqu’à ce que » pour aboutir à un résultat final. Les recettes de cuisine constituent depuis fort longtemps un exemple très commenté [5]. Il y a d’un côté les ingrédients qu’il va falloir utiliser et de l’autre une description de la suite d’actions à réaliser, avec différents tests et contrôles : attendre l’ébullition de l’eau, que le beurre soit fondu mais pas noirci, que la pâte soit onctueuse… Les descriptions des recettes montrent d’ailleurs certaines limites : comment juger que le mélange est bien réalisé, que la poêle est assez chaude, qu’il y a suffisamment de sel, etc. Certains ajoutent des « trucs », d’autres les gardent pour eux. Les recettes sont plus ou moins complexes, des tours de main peuvent s’avérer nécessaires, et le plus souvent le résultat n’est pas garanti, même si on suit scrupuleusement l’algorithme décrit dans la recette.

L’intelligence artificielle est maintenant convoquée, avec des machines pouvant exécuter des recettes de grands chefs cuisiniers : le Gastronomy Flagship Project de Sony [6] est dédié à la gastronomie, une intelligence artificielle pour la création des recettes, un robot pour les réaliser et un réseau social de cuisiniers pour une création communautaire [7] ; Moley, la première cuisine entièrement robotisée au monde [8] ou le Bot Chef de Samsung [9] : « Non seulement le robot cuisine des repas complets, mais il vous indique quand les ingrédients doivent être remplacés, suggère des plats en fonction des articles que vous avez en stock, apprend ce que vous aimez et nettoie même les surfaces après lui-même ».

En fait, les techniques d’intelligence artificielle peuvent donner aux appareils une certaine capacité d’agir par eux-mêmes et, au lieu de toucher un écran ou manipuler des boutons, nous parlerons bientôt à nos appareils, constamment à l’écoute, dans nos maisons et nos bureaux. La promesse ultime est dans leur capacité à prédire ce que nous voulons avant même qu’on le demande. L’inquiétude que l’on peut ressentir ne vient pas d’activités menées par des humains suivant des algorithmes, mais naît lorsque ces derniers nourrissent des systèmes ou des machines automatiques qui prennent des décisions ou orientent nos choix et nos visions du monde. Nous allons tenter d’en montrer les enjeux autour des questions de recherche d’information.

Les moteurs de recherche : des algorithmes au pouvoir grandissant

Au démarrage de l’Internet grand public, avec le développement du Web, il a fallu inventer des techniques pour aider les humains à trouver les pages qui pouvaient les intéresser.

Pour cela, il fallait indexer un grand nombre de pages web pour pouvoir les retrouver et déterminer un lien entre la demande d’un utilisateur et ces pages. Les techniques documentaires classiques, à partir des descripteurs des pages, s’avéraient peu performantes, notamment parce que l’indexation des pages, assurée par les auteurs eux-mêmes, ne suivait pas les règles classiquement recommandées en documentation. En outre, le fait que le Web est un hypertexte, c’est-à-dire que les pages sont liées entre elles, n’était pas pris en compte. Cela a été la grande force de Google, d’une part de constituer des parcs de machines pour indexer les pages web et, d’autre part d’élaborer un algorithme reposant sur le contenu des pages et les liens entre elles [10]. En effet, les moteurs doivent palier un défaut structurel du Web : les liens hypertextes ne sont pas bidirectionnels et si vous consultez une page, vous ne pouvez pas savoir quels liens pointent sur cette page. Les moteurs de recherche ont récupéré ces informations et ils s’en servent pour déterminer l’intérêt d’une page. Ainsi, plus il y a de liens pointant sur une page, plus il estime qu’une page est intéressante (surtout si ces liens proviennent de pages également jugées intéressantes par le moteur !).

Notons que cette caractéristique a orienté des techniques courantes pour améliorer le référencement d’une page et a également été détournée via ce que l’on nomme le Google bombing ou le bombardement Google. Cela consiste à multiplier les liens vers une page ou un site avec la même expression dans l’origine du lien. Cette expression, souvent négative voire dénonciatrice ou diffamatoire, devient un mot clé pour conduire au site (voir quelques exemples de détournements [11]).

En outre, contrairement aux algorithmes habituels en documentation qui fournissent de manière exhaustive les réponses à une demande, le très grand nombre de pages web susceptibles de répondre à une requête [12] conduit à ordonner les réponses à afficher. C’est ce tri, le choix effectué automatiquement par la machine et l’ordre de présentation, qui va s’avérer déterminant.

La question qui s’ensuit est de trouver les meilleurs algorithmes, c’est-à-dire ceux qui satisfont le mieux les utilisateurs. Pour cela, si les algorithmes des moteurs de recherche disposent d’autres informations et pas uniquement du ou des quelques mots écrits dans la barre de recherche, ils seront certainement mieux armés. La notion de « profil » va s’imposer : si on sait que quelqu’un qui vous ressemble a consulté une page pour répondre à une requête identique à la votre, on vous présentera la même page. Bien évidemment, plus on connaît l’utilisateur, son pays, sa langue, ses opinions, ses goûts, ses préférences, etc., plus on peut avoir de chances de le satisfaire. Mais que veut dire « satisfaire » : pour un usager, qu’il soit content afin de le faire rester puis revenir ? Pour un annonceur, pousser les internautes vers son site ? Ne s’agit-il pas alors, dans les choix opérés, d’exploiter des biais cognitifs : donner à l’utilisateur ce qui confirme ce qu’il croit déjà, par exemple ce que d’autres qui lui ressemblent trouvent plutôt intéressant. Et au lieu d’attendre qu’il formule une requête, pourquoi ne pas directement lui proposer ce qui est susceptible de l’intéresser. On passe alors de la recherche d’informations aux systèmes de recommandations, qui « poussent » l’information vers les utilisateurs. On arrive aux bulles de filtres : ce qui est rendu visible à chacun dépend des différentes données collectées sur lui. Il est installé dans une « bulle » unique, construite à la fois par les algorithmes et par ses propres choix (« amis » sur les réseaux sociaux, sources d’informations, etc.), optimisée pour sa personnalité supposée [13] (voir aussi Doctorow, 2007, pour une vision dystopique).

Une autre évolution des moteurs de recherche est leur transformation en moteurs dits de réponse : les moteurs de recherche ne répondaient pas directement aux questions posées par les utilisateurs mais proposaient des documents, à charge pour les demandeurs de les lire et d’en extraire les informations recherchées. Il s’agit maintenant de leur fournir le plus directement possible des éléments en lien avec leur question, voire directement une réponse [14]. Dans les travaux de recherche actuels, il s’agit d’aller encore plus loin : des données à l’information, aux connaissances [15] (Abiteboul, 2019), ce que Google offre déjà dans des encarts à droite de la page de résultats.

Détourner pour mieux comprendre les fonctionnements des algorithmes

Pour résumer, côté documentation, on est passé :

  • des bases de données de documents : un corpus bien délimité avec une liste de champs (auteur, titre, éditeur, mots clés, résumé…), des langages documentaires et une réponse exhaustive et sûre à une requête (aux erreurs de saisie près) ;
  • au Web : un corpus mal délimité ( bien que d’une taille considérable, seule une partie du Web est indexée), le contenu des pages (chaînes de caractères), des liens entre les pages, une réponse non exhaustive, un algorithme de tri des réponses.

Avec le Web, on dispose de trois manières de trouver de l’information : (1) utiliser un moteur de recherche ou un outil de recherche, il faut alors décrire ce que l’on cherche, en tapant une requête ou en fournissant un fragment (image, son, texte) ; (2) naviguer en cliquant sur des liens proposés sur la page web que l’on consulte, mais on dépend de ce qui est présent sur cette page ; (3) consulter ce que notre réseau humain nous envoie ou ce que le système, selon ses paramètres, nous envoie automatiquement.

Dans tous les cas, un processus a permis de filtrer l’information et de plus ou moins la personnaliser, en fonction de ce que le système de recherche ou de préconisation peut connaître de nos souhaits et de nos besoins. Mais pour satisfaire un humain, n’est-il pas finalement plus facile de le rendre prédictif, de le façonner petit à petit de façon à ce qu’il en arrive à souhaiter ce que l’on prévoit pour lui ? Heureusement, ce n’est pas aussi simple que cela.

Les professeurs documentalistes ont un rôle important à jouer, pour aider les élèves à mieux appréhender les différents instruments de recherche à leur disposition et à exercer leur jugement sur leur fonctionnement et sur ce qu’ils proposent.

D’abord, ne pas oublier que la « pertinence » est avant tout un jugement sur l’adéquation entre des besoins de connaissance [16] et des documents qui « contiennent » des informations censées répondre à ce besoin (une capacité que les machines sont encore loin d’avoir) et qu’il y a différentes voies pour les trouver : taper une requête, choisir via une image, cliquer sur un lien visible, etc. Ainsi, choisir une page web à partir d’une image est une technique qui peut être performante : avec Google images, on peut survoler rapidement de très nombreux exemples et les images elles-mêmes reflètent souvent un niveau de technicité. Par exemple, avec la requête « cycle de l’eau », les images proposées, leur complexité et le lexique visible, donnent des indices sur le niveau de classe auquel elles peuvent correspondre (plus facile à choisir qu’à partir de la lecture des brefs extraits fournis). En conséquence, il faut développer des techniques d’enquêtes et faire preuve de réflexivité : utiliser plusieurs méthodes, comparer, etc. Même si on ne peut pas répéter trop souvent ces activités qui prennent du temps, il est important de saisir des occasions afin de les mener et de conduire quelques séances « marquantes », au cours desquelles des interrogations et des situations inhabituelles devraient surprendre les élèves et les amener à considérer les instruments de recherche différemment [17].

Il est certes difficile d’enseigner le fonctionnement des machines informatiques qui nous environnent, mais on peut se donner l’objectif d’essayer de mieux le comprendre, et pour comprendre, il est important de détourner (Bruillard, 2020). Ainsi, affiner le jugement de pertinence est un objectif important, mais il est plus facile de détecter des choses non pertinentes que des choses pertinentes. Il faut apprendre à rejeter, puis apprendre à classer des documents meilleurs que d’autres relativement à une requête dans un contexte particulier. Voici quelques exemples d’activités à mener :

  • aller chercher des choses inattendues : ne pas prendre uniquement les recherches dans une vision de service mais en conduire avec des demandes inhabituelles :
  • faire des jeux (voir par exemple Simonnot, 2008), essayer de faire taire le moteur (taper plusieurs mots qui ensemble ne donnent aucun résultat),
  • rechercher un poème via une image, un avocat marron qui ne soit pas un fruit via Google images, etc.
  • refuser la similarité : à l’instar des banques qui vous demandent un profil (prudent, risqué…) et gèrent selon ce profil, pourquoi n’y aurait-il pas un profil de rechercheur (curieux, aventureux, scolaire…) ? Pourquoi ne pas demander des choses éloignées de ce que l’on connaît ? Quelles poésies recommander à un adolescent amateur de science-fiction ? Se méfier des nudges (Boissière et Bruillard, 2021) [18].

Que la formation aux instruments de recherche offre de multiples perspectives, qu’elle soit le lieu d’ouvertures et de rencontres inattendues, au-delà de la satisfaction de critères simplistes de performance, n’est-ce pas ce que l’on pourrait souhaiter ?

Références

Notes

[1Chabert Jean-Luc, Barbin Evelyne, Guillemot Michel, Djebbar Ahmed, … (2010). Histoire d’algorithmes. Du caillou à la puce. Belin.

[5Voir par exemple https://interstices.info/les-ingredients-des-algorithmes/#1 et https://interstices.info/les-ingredients-des-algorithmes/#2 ou interroger un moteur de recherche avec l’expression « algorithme recette de cuisine »

[10Sur Page Rank, l’algorithme de tri utilisé par Google, voir Delahaye (2007) ou Guerraoui (2014).

[12Parfois, la requête est un simple mot et toutes les pages contenant ce mot sont supposées répondre à cette requête (recherche plein texte).

[15Au sens donné par les informaticiens à la notion de connaissance : un ensemble structuré d’informations sur lequel on peut effectuer des traitements.

[16Les modèles, comme celui de Mizzaro (1997) utilisent l’expression « besoin d’informations », mais, dans le contexte scolaire, la finalité est celle de l’acquisition de connaissances par les élèves.

[17Penser aux générations d’élèves qui apprennent à se servir du compas en exécutant des rosaces !

[18Développée par l’économiste comportemental Richard Thaler et le juriste Cass Sunstein, la théorie du nudge désigne une méthode d’influence cherchant à modifier des comportements humains, notamment des choix à faire, sans contrainte, ni obligation, ni sanction. https://fr.wikipedia.org/wiki/Nudge_(livre)

Documents


PDF - 146.7 ko
  • RESTEZ
    CONNECTé