Depuis quelques mois, ChatGPT est au centre des conversations. Cette intelligence artificielle (IA) lancée par OpenAI a été publiée en novembre 2022 et est capable de créer un texte semblable à celui d’un humain. ChatGPT est présenté comme le prochain grand perturbateur du monde tel que nous le connaissons, et pourrait un jour détrôner Google en tant que moteur de recherche le plus utilisé. Actuellement, ChatGPT dispose d’une version gratuite qui ne nécessite pas de téléchargement pour être utilisée. Le chatbot offre une multitude de possibilités : il peut écrire de la poésie, des paroles de chansons, du code informatique et réussir un examen de MBA. Les utilisateurs peuvent poser des questions au chatbot et les réponses sont générées en fonction du vaste ensemble de données en ligne sur lequel ChatGPT est formé. Bien que les possibilités et le potentiel de ChatGPT semblent infinis, il existe également un côté sombre qui mérite d’être examiné.
Pour rendre ChatGPT moins violent, sexiste et raciste, OpenAI a engagé des ouvriers kényans, les rémunérant à moins de 2 dollars de l’heure. Ces ouvriers ont parlé anonymement à TIME lors d’une enquête sur leurs expériences. Les ouvriers étaient chargés de filtrer les textes et images nocifs afin de former les données à reconnaître les contenus préjudiciables. Un travailleur a partagé le traumatisme qu’il a vécu en lisant et en étiquetant les textes pour OpenAI, le décrivant comme une “torture” en raison de la nature traumatisante des textes. Un aspect souvent négligé de la création d’IA générative est la nécessité d’exploiter le travail de personnes dans des pays sous-développés.
Des scientifiques comme Joy Buolamwini et Timnit Gebru alertent depuis un certain temps déjà sur les aspects sombres de l’IA. Safiya Umoja Noble a écrit abondamment sur les biais présents dans nos algorithmes, et des plateformes de médias sociaux comme TikTok ont été critiquées pour les biais intégrés dans leur plateforme. ChatGPT n’est pas à l’abri de ces biais. En décembre 2022, un utilisateur de Twitter nommé Steven T. Piantadosi a répertorié toutes les instances de biais qu’il a pu détecter sur la plateforme. Forte de ces connaissances, OpenAI a mis en place des garde-fous conçus pour atténuer les réponses biaisées générées par le chatbot, bien que certains utilisateurs aient trouvé des moyens de contourner ces garde-fous. Il existe quelques mesures pouvant être prises pour réduire les biais dans nos systèmes d’IA. Une approche consiste à “prétraiter les données”, ce qui contribuera à maintenir l’exactitude des données. Une autre option est d’introduire des “contraintes d’équité” pour limiter la capacité d’un système à “prédire l’attribut sensible”. Un système d’IA idéal serait une fusion entre la prise de décision humaine et la technologie. Lorsque nous utilisons des systèmes d’IA, il est important d’être conscients des façons dont ces systèmes peuvent intensifier les biais et de quelle manière. Nous devons également envisager des processus pouvant être utilisés pour atténuer les biais dans nos systèmes d’IA.
Promouvoir une culture de l’éthique en ce qui concerne l’IA pourrait être une stratégie efficace pour aborder les biais au sein des systèmes d’IA utilisés sur le lieu de travail. Cela pourrait inclure la mise à jour du processus d’évaluation des performances sur le lieu de travail pour introduire délibérément des pratiques d’IA plus éthiques, ainsi qu’une plus grande transparence et plus de discussions autour des pièges des systèmes d’IA. Il n’est pas surprenant qu’un chatbot IA comme ChatGPT puisse générer des réponses biaisées. Mais la technologie de l’IA ne fait que refléter ce qui a été programmé et sur quoi elle a été formée. Nous sommes peut-être loin du point où nous pouvons vraiment nous fier aux réponses générées par n’importe quel système d’IA. Bien que les possibilités des systèmes d’IA soient illimitées, ils doivent être utilisés avec prudence et une compréhension de leurs limitations potentielles.
No Responses