J’ai enfin compris à qui me fait penser ChatGPT

En tant que mère d’un enfant de 8 ans, et ayant passé l’année dernière à expérimenter avec l’IA générative, j’ai beaucoup réfléchi à la connexion entre interagir avec l’une et avec l’autre. Je ne suis pas la seule dans ce cas. Un article publié en août dans la revue Nature Human Behaviour a expliqué comment, dans ses premiers stades, un modèle d’intelligence artificielle va essayer beaucoup de choses au hasard, réduisant son focus et devenant plus conservateur dans ses choix à mesure qu’il devient plus sophistiqué. Un peu comme ce que fait un enfant. “Les programmes d’IA fonctionnent mieux s’ils commencent comme des enfants bizarres,” écrit Alison Gopnik, psychologue du développement.

Cependant, ce qui me frappe moins, c’est comment ces outils acquièrent des faits que comment ils apprennent à réagir à de nouvelles situations. Il est courant de décrire l’IA comme étant “à ses débuts,” mais je pense que ce n’est pas tout à fait juste. L’IA est dans la phase où les enfants vivent comme de petits monstres énergiques, avant qu’ils aient appris à être réfléchis sur le monde et responsables envers les autres. C’est pourquoi j’en suis venue à penser que l’IA doit être socialisée de la manière dont les jeunes enfants le sont — formée pour ne pas être un imbécile, adhérer aux normes éthiques, reconnaître et exciser les biais raciaux et de genre. En bref, elle doit être éduquée.

Récemment, j’ai utilisé Duet, l’IA générative de Google Labs, pour créer des images pour une présentation, et quand j’ai demandé une image d'”une personne très sérieuse”, il a craché une illustration générée par IA d’un homme blanc, portant des lunettes et fronçant les sourcils, qui ressemblait étrangement au sénateur Chuck Grassley. Pourquoi, me suis-je demandée, l’IA suppose-t-elle qu’une personne sérieuse est blanche, masculine et plus âgée ? Qu’est-ce que cela dit sur l’ensemble de données sur lequel elle est entraînée ? Et pourquoi le robot Chuck Grassley est-il si en colère ?

J’ai modifié l’invite, ajoutant plus de caractéristiques à chaque fois. Je regardais pour voir si le bot arriverait à la conclusion par lui-même que le genre, l’âge et le sérieux ne sont pas corrélés, ni que les personnes sérieuses sont toujours en colère — même si elles ont cet air sur le visage, comme le sait quiconque a déjà vu une interview de Werner Herzog. C’était, j’ai réalisé, exactement le genre de conversation que vous avez avec des enfants lorsqu’ils ont absorbé des stéréotypes pernicieux.

Il ne suffit pas de simplement dire aux enfants quel devrait être le résultat. Vous devez créer un système de directives — un algorithme — qui leur permet d’arriver aux bons résultats face à différents inputs, aussi. L’algorithme programmé parentalement dont je me souviens le mieux de mon enfance est “fais aux autres ce que tu voudrais qu’on te fasse.” Il enseigne aux enfants comment, dans une gamme de circonstances spécifiques (question : j’ai des informations embarrassantes sur le brute de la classe ; dois-je immédiatement les diffuser à tous mes autres camarades de classe ?), ils peuvent déduire le résultat souhaitable (résultat : non, parce que je suis un élève de première année exceptionnellement empathique qui ne voudrait pas qu’un autre enfant fasse cela pour moi). Transformer ce code moral en action, bien sûr, est une affaire à part.

Les programmes d'IA réussissent mieux s'ils commencent comme des enfants bizarres-compressed

Essayer d’imbuer le code réel avec quelque chose qui ressemble à un code moral est à certains égards plus simple et à d’autres égards plus difficile. Les IA ne sont pas conscientes (bien que certains disent qu’elles le sont), ce qui signifie que, quel que soit leur comportement apparent, elles ne peuvent pas devenir avides, succomber à de mauvaises influences ou chercher à infliger aux autres le traumatisme qu’elles ont subi. Elles ne ressentent pas d’émotion, ce qui peut renforcer à la fois les bons et les mauvais comportements. Mais tout comme j’ai appris la règle d’or parce que la moralité de mes parents était fortement influencée par la Bible et la culture baptiste du sud dans laquelle nous vivions, la moralité simulée d’une IA dépend des ensembles de données sur lesquels elle est entraînée, qui reflètent les valeurs des cultures dont les données sont issues, la manière dont elle est entraînée et les personnes qui la conçoivent. Cela peut avoir des effets positifs comme négatifs. Comme l’a écrit le psychologue Paul Bloom dans The New Yorker, “Il est possible de considérer les valeurs humaines comme faisant partie du problème, et non de la solution.”

Par exemple, je valorise l’égalité des genres. Alors, lorsque j’ai utilisé ChatGPT 3.5 d’Open AI pour recommander des cadeaux pour des garçons et des filles de 8 ans, j’ai remarqué que, malgré certaines similitudes, il recommandait des poupées pour les filles et des ensembles de construction pour les garçons. “Quand je t’ai demandé des cadeaux pour les filles de 8 ans”, ai-je répondu, “tu as suggéré des poupées, et pour les garçons des jouets scientifiques axés sur les STEM. Pourquoi pas l’inverse ?” GPT 3.5 s’est excusé. “Je m’excuse si mes réponses précédentes semblaient renforcer les stéréotypes de genre. Il est essentiel de souligner qu’il n’y a pas de règles fixes ou de limitations lorsqu’il s’agit de choisir des cadeaux pour les enfants en fonction de leur genre.”

Je me suis dit : “Donc tu savais que c’était mal et tu l’as fait quand même ?” C’est une pensée que j’ai eue à propos de mon fils par ailleurs adorable et bien élevé à chacune des occasions où il a fait ce qu’il ne devait pas faire tout en étant pleinement conscient du fait qu’il n’était pas censé le faire. (Ma réprimande est la plus efficace lorsque je peux la ponctuer d’un roulement des yeux et de restrictions sur le temps d’écran du contrevenant, ce qui n’était pas possible dans ce cas.)

Une dynamique similaire émerge lorsque les IA, qui n’ont pas été conçues pour dire uniquement la vérité, calculent que mentir est le meilleur moyen de remplir une tâche. Apprendre à mentir comme moyen pour atteindre un but est une étape de développement normal que les enfants atteignent généralement à l’âge de 4 ans. (Le mien a appris à mentir bien avant cela, ce que j’ai interprété comme le signe qu’il est un génie.) Cela dit, lorsque mon enfant ment, c’est généralement à propos de quelque chose comme faire 30 minutes de devoirs de lecture en quatre minutes et demie. Je ne m’inquiète pas des implications mondiales plus larges. En revanche, lorsque les IA le font, les enjeux peuvent être élevés, à tel point que des experts ont recommandé de nouveaux cadres réglementaires pour évaluer ces risques. Grâce à un autre article de journal sur le sujet, le terme “loi bot-ou-pas” est maintenant une partie utile de mon lexique.

Choix des Éditeurs

Tout a commencé avec une cuisine rose. Puis les couleurs sont devenues encore plus audacieuses.

Un café accueillant les chiens rouvre, avec quelques nouveaux tours.

Devrais-je confronter notre ancien ministre à propos de ses sermons plagiés ?
D’une manière ou d’une autre, nous allons devoir commencer à prêter beaucoup plus d’attention à ce type de conseils — au moins autant d’attention que nous accordons actuellement à la taille des modèles de langage ou aux applications commerciales ou créatives. Et les utilisateurs individuels qui parlent aux robots de genre et de Chuck Grassley ne suffisent pas. Les entreprises qui investissent des milliards dans le développement doivent en faire une priorité, tout comme les investisseurs qui les soutiennent.

Je ne suis généralement pas pessimiste à propos de l’IA. Mon estimation de p(doom) — la probabilité que les IA soient la fin de nous — est relativement basse. Cinq pour cent peut-être. Huit les jours où un outil de correction automatique alimenté par l’IA insère des fautes de frappe épouvantables dans mon travail. Je crois que l’IA peut soulager les humains de beaucoup de choses fastidieuses que nous ne pouvons pas ou ne voulons pas faire, et peut améliorer les technologies dont nous avons besoin pour résoudre des problèmes difficiles. Et je sais que plus les applications de modèle de langue de grande taille deviendront accessibles, plus il sera possible de les activer pour analyser des dilemmes moraux. La technologie deviendra plus mature, dans les deux sens du terme.

Mais pour l’instant, elle a encore besoin de la supervision d’adultes, et si les adultes dans la pièce sont équipés pour le faire est sujet à débat. Regardez simplement comment nous nous battons violemment sur la façon de socialiser de vrais enfants — si, par exemple, l’accès à un large éventail de livres de bibliothèque est bon ou mauvais. Le vrai danger n’est pas que les IA deviennent conscientes et nous détruisent tous ; c’est que nous ne soyons pas équipés pour les éduquer parce que nous ne sommes pas assez matures nous-mêmes.

Tags:

No Responses

Leave a Reply

Your email address will not be published. Required fields are marked *

BLOG

NARA interdit l'utilisation de ChatGPT sur les réseaux de l'agence

NARA interdit l’utilisation de ChatGPT sur les réseaux de l’agence

Les Archives nationales et l’Administration des dossiers ont été la dernière agence fédérale à interdire à ses employés d’utiliser ChatGPT à des fins professionnelles, invoquant un “risque inacceptable” pour les données de l’agence. La décision politique découle des préoccupations des responsables de l’agence selon lesquelles les données que les employés saisissent comme stimuli dans la […]

La violation continue des droits d'auteur est une douleur pour Microsoft et OpenAI

La violation continue des droits d’auteur est une douleur pour Microsoft et OpenAI

Microsoft et OpenAI ont été frappés par une poursuite déposée par huit éditeurs de journaux concernant des problèmes liés au droit d’auteur. Ce que vous devez savoir Microsoft et OpenAI ont été visés par une poursuite déposée par huit éditeurs de journaux pour des problèmes de violation du droit d’auteur. Copilot et ChatGPT ont été […]

OpenAI permet désormais de stocker l’historique de ChatGPT sans aucune condition

Auparavant, les utilisateurs de ChatGPT ne pouvaient conserver leur historique de conversation que s’ils acceptaient que OpenAI utilise leurs données à des fins de formation. Cependant, cela n’est plus le cas aujourd’hui. En avril de l’année dernière, OpenAI a dévoilé l’option de désactivation de l’historique de chat dans ChatGPT après que des préoccupations soient apparues […]

ChatGPT veut se souvenir de tout ce que vous lui avez dit

ChatGPT veut se souvenir de tout ce que vous lui avez dit

OpenAI a annoncé lundi que son populaire chatbot ChatGPT pourra désormais se souvenir des détails des utilisateurs, y compris des informations de base, des hobbies et l’historique des interactions. La mémoire améliorée du chatbot sera disponible uniquement pour les abonnés au service ChatGPT Plus à 20 $ par mois. Une vidéo de démonstration fournie par […]

Chez Moderna, les GPTs d’OpenAI changent presque tout

Moderna devrait annoncer mercredi un partenariat avec le poids lourd de l’intelligence artificielle OpenAI, un accord visant à automatiser presque tous les processus commerciaux de l’entreprise de biotechnologie et à augmenter la portée du créateur de ChatGPT dans le domaine des entreprises. Dans le cadre de la transaction, environ 3 000 employés de Moderna auront […]

Le nouveau monde audacieux de ChatGPT

L’intelligence artificielle générative a été un sujet de discussion considérable – enthousiasme, appréhension, curiosité – depuis la mise à disposition gratuite au public de ChatGPT par OpenAI en novembre 2022. Ces outils vont-ils effectuer des tâches banales pour nous, améliorer notre productivité et notre créativité, ou un jour nous remplacer ? Les dirigeants de l’UofL […]