L’utilisation de ChatGPT comme moteur de recherche a rendu le besoin de pensée critique plus pressant que jamais, écrit Enrique Dans.
Le lancement de ChatGPT par OpenAI à la fin novembre a capturé l’attention du monde entier et nous a ouvert les yeux sur l’existence d’une technologie capable d’un nombre surprenant de choses appelée apprentissage automatique. Remarquez ici le langage utilisé. Ce n’est pas de l’intelligence artificielle car les machines ne sont pas intelligentes, elles sont simplement programmées pour consulter des bases de données et utiliser des statistiques.
L’automatisation avancée est depuis des années appliquée à toutes sortes d’usages, mais ce que ChatGPT a fait, c’est d’appliquer un domaine spécifique de l’apprentissage automatique, les Modèles de Langage de Grande Taille (LLMs), à un environnement conversationnel, et a ébloui le monde dans le processus. En conséquence, de plus en plus de personnes l’utilisent – pas tant pour des conversations, comme il a été initialement conçu, mais comme un moteur de recherche. C’est un développement qui pourrait défier les deux décennies d’hégémonie de Google.
Il convient de souligner que Google possède déjà une technologie très similaire, mais a jusqu’à présent décidé de la garder sous le coude jusqu’à ce qu’il puisse être sûr de sa qualité et de sa fiabilité. Un LLM répond aux questions basées sur des affinités et des correspondances statistiques, et la seule façon d’obtenir des réponses “correctes” est de les filtrer, c’est-à-dire exclure les éléments inappropriés. Ce n’est pas facile, donc certaines réponses seront partiellement incorrectes, et parfois elles seront très éloignées de la marque, même si le langage utilisé semble celui d’un expert.
Google, bien sûr, a immédiatement réalisé la menace posée par ChatGPT. En réponse, l’entreprise a sorti ses deux fondateurs de la retraite et a décidé d’incorporer des technologies similaires dans une vingtaine de ses produits. Microsoft, désormais investisseur dans OpenAI, est sur le point de faire de même. (Si vous n’avez pas encore eu le plaisir de créer des documents Excel avec un algorithme comme ChatGPT, je le recommande vivement).
Jusqu’ici tout va bien : nous avons l’innovation qui stimule la concurrence.
Pourtant, le problème ici est ce qui arrive à la pensée critique. Une page de résultats Google, avec ses liens, nous montre la source et peut inclure un fragment de texte, etc., avant que nous cliquions finalement et atterrissions sur la page pour (espérons-le) trouver ce que nous cherchions. Mais, avec ChatGPT et similaires, nous posons une question et recevons quelques paragraphes avec la réponse – et cette réponse peut être correcte ou non, bien qu’elle en ait certainement l’air.
L’absence de pensée critique dans le monde d’aujourd’hui est telle que beaucoup de gens prennent le premier résultat sur une page Google pour parole d’évangile. Je dis cela d’expérience. Plusieurs personnes m’ont appelé, convaincues que j’étais le responsable du service client d’une compagnie aérienne espagnole simplement parce que j’avais écrit, il y a longtemps, sur le service client désastreux d’Air Europa et l’article était indexé en haut du moteur de recherche de Google. Essayez donc de convaincre des voyageurs mécontents que vous n’êtes pas la personne à qui adresser leurs plaintes ! Peu importait ce que je leur disais : selon leur lecture de la page du moteur de recherche, Google disait que j’étais le service client de la compagnie aérienne, donc je devais mentir.
Ainsi, si les gens acceptent sans critique la parole de Google, imaginez la réponse à ChatGPT. La réponse à votre recherche peut être du pur mensonge, mais peu importe : pour beaucoup, c’est une vérité dure et fiable.
Il existe des outils comme Perplexity qui tentent d’atténuer cela en fournissant des sources – et cela, au moins, permet à quiconque veut vérifier les faits de le faire. Je pense que Google, qui a beaucoup en jeu ici, ira dans cette direction et ne fournira pas simplement un seul texte mais quelque chose de plus élaboré qui permettrait à l’utilisateur de vérifier si la réponse vient d’un article scientifique, d’un journal à sensation ou d’une secte d’anti-vaccins, de négationnistes du changement climatique ou de théoriciens du complot. Au minimum, les moteurs de recherche ont la responsabilité de rendre possible pour les utilisateurs de sonder leurs réponses avec quelques clics. C’est une nécessité car l’érosion constante de la pensée critique nous expose à la dépendance envers un outil qui peut facilement être utilisé pour nous manipuler.
Néanmoins, en fin de compte, nous ne devrions pas attendre des grandes technologies qu’elles facilitent la pensée critique : c’est quelque chose que nous devons développer par nous-mêmes, individuellement et collectivement en tant que société. Le problème, c’est que nos écoles ne l’enseignent pas, préférant le confort d’un manuel, souvent en interdisant les smartphones en classe plutôt qu’en saisissant le défi d’enseigner aux élèves comment les utiliser correctement.
Cela dit, le système éducatif ne peut pas porter toute la responsabilité : les parents ont également l’obligation d’enseigner à leurs enfants comment fonctionne le monde. Je crains que cela signifie réfléchir à deux fois avant de donner un téléphone ou une tablette à des enfants pour les garder tranquilles.
Après des années de “cela doit être vrai parce que je l’ai vu à la télévision”, nous avons maintenant “cela doit être vrai parce que l’algorithme le dit”. Alors, soit nous prenons les choses en main et commençons à prioriser la pensée critique, soit nous allons finir dans un désordre collectif – et plus vulnérables que jamais à la désinformation.
No Responses