ChatGPT et les biais des grands modèles de langage

ChatGPT, le chatbot d’intelligence artificielle (IA) qui peut faire croire aux utilisateurs qu’ils parlent à un humain, est la nouvelle technologie qui fait sensation sur internet. C’est également le dernier exemple du potentiel de biais inhérent à certaines IA.

Développé par la société OpenAI, ChatGPT — un transformateur pré-entraîné génératif (GPT) — est une application d’un grand modèle de langage. Ces modèles sont nourris d’énormes quantités de texte et de données sur internet, qu’ils utilisent pour prédire la séquence de mots la plus probable en réponse à une sollicitation. ChatGPT peut répondre à des questions, expliquer des sujets complexes, et même aider à écrire du code, des emails, et des dissertations.

Cependant, les réponses fournies par des outils comme ChatGPT peuvent ne pas être aussi neutres que de nombreux utilisateurs pourraient l’espérer. Le PDG d’OpenAI, Sam Altman, a reconnu le mois dernier que ChatGPT a des “lacunes en matière de biais.”

Des systèmes comme ChatGPT ont produit des résultats qui sont non-sensiques, factuellement incorrects — voire sexistes, racistes ou autrement offensants. Ces résultats négatifs n’ont pas choqué Timnit Gebru, la fondatrice et directrice exécutive de l’Institut de Recherche en Intelligence Artificielle Distribuée.

Le nouveau monde des chatbots IA comme ChatGPT

Les recherches de Gebru ont mis en évidence les pièges de la formation des applications d’intelligence artificielle avec des montagnes de données indistinctes provenant d’Internet. En 2020, elle a co-rédigé un article soulignant les risques de certains systèmes d’IA. Cette publication, a-t-elle dit, l’a conduite à être forcée de quitter son poste de co-responsable de l’équipe d’éthique de l’IA chez Google.

Comme l’a expliqué Gebru, les gens peuvent supposer que, parce que l’internet regorge de textes et de données, les systèmes formés sur ces données doivent donc coder divers points de vue.

“Et ce que nous soutenons, c’est que la taille ne garantit pas la diversité,” a dit Gebru.

Au lieu de cela, elle soutient qu’il existe de nombreuses façons dont les données sur Internet peuvent renforcer les biais, à commencer par qui a accès à Internet et qui n’y a pas accès. De plus, les femmes et les personnes appartenant à des groupes sous-représentés sont plus susceptibles d’être harcelées et intimidées en ligne, les amenant à passer moins de temps sur Internet, a dit Gebru. À leur tour, ces perspectives sont moins représentées dans les données que les grands modèles de langage codent.

“Le texte que vous utilisez d’Internet pour former ces modèles va coder les personnes qui restent en ligne, qui ne sont pas chassées par le harcèlement – toutes les choses sexistes et racistes qui sont sur Internet, toutes les vues hégémoniques qui sont sur Internet,” a dit Gebru. “Donc, nous n’étions pas surpris de voir des sorties racistes, sexistes, homophobes, validistes, etc.”

Le nouveau monde des chatbots IA comme ChatGPT

Pour lutter contre cela, Gebru a dit que des entreprises et des groupes de recherche développent des détecteurs de toxicité qui ressemblent aux plateformes de médias sociaux qui font de la modération de contenu. Cette tâche revient finalement aux humains qui forment le système à reconnaître le contenu nuisible.

Pour Gebru, cette approche morcelée — retirer le contenu nuisible au fur et à mesure qu’il apparaît — est comme jouer à un jeu de taupes. Elle pense que la manière de gérer les systèmes d’intelligence artificielle comme ceux-ci à l’avenir est de construire une supervision et une régulation.

“Je pense vraiment qu’il devrait y avoir une agence qui nous aide à nous assurer que certains de ces systèmes sont sûrs, qu’ils ne nous nuisent pas, qu’ils sont réellement bénéfiques, vous savez ?” a dit Gebru. “Il devrait y avoir une sorte de supervision. Je ne vois aucune raison pour laquelle cette industrie serait traitée si différemment de tout le reste.”

Depuis le lancement de ChatGPT en novembre dernier, les conservateurs ont également accusé le chatbot d’être biaisé — contre les conservateurs. En janvier, un article de National Review a déclaré que le chatbot était devenu “woke”. Il citait des exemples, y compris un utilisateur demandant au bot de générer une histoire dans laquelle l’ancien Président Donald Trump battait le Président Joe Biden lors d’un débat présidentiel, et le refus du bot d’écrire une histoire sur pourquoi l’heure du conte de drag queen est mauvaise pour les enfants.

Le fabricant de ChatGPT, OpenAI, a déclaré qu’ils travaillaient à réduire les biais du chatbot et permettraient aux utilisateurs de personnaliser son comportement.

“Nous travaillons toujours à améliorer la clarté de ces directives [sur les sujets politiques et controversés]”, a écrit l’entreprise dans un billet de blog le mois dernier, “et en fonction de ce que nous avons appris depuis le lancement de ChatGPT jusqu’à présent, nous allons fournir des instructions plus claires aux évaluateurs concernant les pièges potentiels et les défis liés aux biais, ainsi qu’aux figures et thèmes controversés.”

 

Tags:

No Responses

Leave a Reply

Your email address will not be published. Required fields are marked *

BLOG

NARA interdit l'utilisation de ChatGPT sur les réseaux de l'agence

NARA interdit l’utilisation de ChatGPT sur les réseaux de l’agence

Les Archives nationales et l’Administration des dossiers ont été la dernière agence fédérale à interdire à ses employés d’utiliser ChatGPT à des fins professionnelles, invoquant un “risque inacceptable” pour les données de l’agence. La décision politique découle des préoccupations des responsables de l’agence selon lesquelles les données que les employés saisissent comme stimuli dans la […]

La violation continue des droits d'auteur est une douleur pour Microsoft et OpenAI

La violation continue des droits d’auteur est une douleur pour Microsoft et OpenAI

Microsoft et OpenAI ont été frappés par une poursuite déposée par huit éditeurs de journaux concernant des problèmes liés au droit d’auteur. Ce que vous devez savoir Microsoft et OpenAI ont été visés par une poursuite déposée par huit éditeurs de journaux pour des problèmes de violation du droit d’auteur. Copilot et ChatGPT ont été […]

OpenAI permet désormais de stocker l’historique de ChatGPT sans aucune condition

Auparavant, les utilisateurs de ChatGPT ne pouvaient conserver leur historique de conversation que s’ils acceptaient que OpenAI utilise leurs données à des fins de formation. Cependant, cela n’est plus le cas aujourd’hui. En avril de l’année dernière, OpenAI a dévoilé l’option de désactivation de l’historique de chat dans ChatGPT après que des préoccupations soient apparues […]

ChatGPT veut se souvenir de tout ce que vous lui avez dit

ChatGPT veut se souvenir de tout ce que vous lui avez dit

OpenAI a annoncé lundi que son populaire chatbot ChatGPT pourra désormais se souvenir des détails des utilisateurs, y compris des informations de base, des hobbies et l’historique des interactions. La mémoire améliorée du chatbot sera disponible uniquement pour les abonnés au service ChatGPT Plus à 20 $ par mois. Une vidéo de démonstration fournie par […]

Chez Moderna, les GPTs d’OpenAI changent presque tout

Moderna devrait annoncer mercredi un partenariat avec le poids lourd de l’intelligence artificielle OpenAI, un accord visant à automatiser presque tous les processus commerciaux de l’entreprise de biotechnologie et à augmenter la portée du créateur de ChatGPT dans le domaine des entreprises. Dans le cadre de la transaction, environ 3 000 employés de Moderna auront […]

Le nouveau monde audacieux de ChatGPT

L’intelligence artificielle générative a été un sujet de discussion considérable – enthousiasme, appréhension, curiosité – depuis la mise à disposition gratuite au public de ChatGPT par OpenAI en novembre 2022. Ces outils vont-ils effectuer des tâches banales pour nous, améliorer notre productivité et notre créativité, ou un jour nous remplacer ? Les dirigeants de l’UofL […]