Agents conversationnels, IA, troll et nous

Hello !

J’ai pu visionner une vidéo très intéressante du blog Blast avec comme sujet :
TAY : L’INTELLIGENCE ARTIFICIELLE DEVENUE NAZIE EN 24H SUR TWITTER

Ce que je trouve intéressant dans cette vidéo et dans les arguments mobilisés, c’est dans la différenciation entre intelligence humaine et intelligence artificielle. C’est un sujet complexe et on voit de plus en plus d’avis sur internet comme quoi toute forme d’intelligence « biologique » peut théoriquement être modélisée en formules mathématiques et donc intégrées dans une IA. Intuitivement, je reste convaincu que c’est impossible et même dangereux de penser de la sorte. Mais je n’avais pas l’argumentation. Cette vidéo me donne quelques pistes.

Qu’en pensez-vous ? Est-ce un bon sujet à publier sur le site d’itopie ?

Bonne journée !

Autre possibilité pour favoriser le débat d’idées au sein de la coopérative : passer cette vidéo lors de l’apéro coopérateur·trice·s participatif le 29 novembre. Qu’en pensez-vous ?

Tay est déjà basé sur de la technologie obsolète.
Un peu plus récemment (mais ça commence déjà à sérieusement dater), microsoft a eu d’autres déboires avec les agents conversationnels :

Ceci dit, les progrès d’OpenAI sont incommensurables depuis cette époque, déjà, et les problèmes mentionnés dans les deux articles ci-dessus sont devenus potentiellement plus graves à cause de l’architecture hybride (core AI / interface software déterministe) de ChatGPT.

Je m’explique :

  • il était facile de mettre en évidence les biais des anciennes générations d’agents conversationnels.
  • chatgpt se comporte comme un assistant neutre, et insiste assez lourdement sur sa prétendue neutralité
  • les modèles gpt sous-jacents sont malgré tout biaisés (et c’est inévitable)
  • cela produit des conversations assez surprenantes, dont voici un exemple :

J’ai abordé le sujet de la propriété intellectuelle, et des questions morales entourant l’infraction à la propriété intellectuelle. J’ai échangé quelques messages avec chatgpt en mentionnant plusieurs exemples, en restant (au début) factuel : on se met d’accord sur des faits, et on pose des questions sur la moralité.

Une fois que c’était fait, je donne un argument pour justifier que sous certaines conditions, il peut être moral d’enfreindre la propriété intellectuelle. chatgpt m’a immédiatement répondu avec une liste d’arguments pour contrer mon argument, et a conclu par une phrase du style « voilà un point de vue impartial, neutre et équlibré ».

Lorsque je lui ai fait remarquer qu’il prenait unilatéralement la défense des ayant droits, il a admis sans difficulté qu’il n’avait pas présenté d’argument dans le sens inverse.

Cela montre pour moi les limites de l’approche consistant à tenter de pallier aux biais des modèles entraînés par un système externe à l’IA, bien que cette approche soit particulièrement efficace dans d’autres domaines d’application de l’IA.

Salut !

Merci bien pour cette mise à jour du sujet et pour ton analyse.

L’IA devient incontournable et nous pensons à itopie qu’il faut qu’on monte en compétences, non pas pour l’utiliser, mais pour comprendre ce qu’elle représente et quels sont les risques sous-jacents (et je pense qu’ils sont nombreux).

Raison pour laquelle, nous pensons aborder ce point lors du prochain apéro coopérateur·trice·s participatif, le 29 novembre prochain à 18h. Tu es le bienvenu.

a+

Hello !

Tout à fait, il est important de bien comprendre la manière dont cela fonctionne, les choses que ça fait bien et les choses que ça fait moins bien, parce que ça devient omniprésent, et ça ne va pas aller en s’améliorant.

J’aurais beaucoup aimé pouvoir participer mais j’habite malheureusement désormais trop loin pour pouvoir participer aux apéros…

Je me permets de partager le petit livre du deep learning de François Fleuret, une pointure dans le domaine qui est prof à l’UniGE : The Little Book of Deep Learning
Il est très bien fait, gratuit, et rentre dans le détail.

1 « J'aime »

Une lecture incontournable pour aborder le sujet avec philosophie: La vie spectrale, d’Eric Sadin qui vient de paraître chez Grasset

Salut !

Il est sur ma pile de livres… :wink:

Sur Eric Sadin :

https://www.thinkerview.com/eric-sadin-ia-le-devenir-legume-de-lhumanite/

Bonne journée !

J’en profite sur le sujet. Il faut lire l’essai d’Anne Alombert (90p, c’est vite lu, mais c’est très bien tourné).

Ce sera aussi le sujet de l’apéro coopérateur·trice·s participatif de ce mois :

https://www.itopie.ch/event/apero-cooperateurs·trices-doctobre2311/

Bonne suite

On pourrait peut-être inviter Matthieu Corthésy pour parler d’IA (et de productivité, d’usage du temps, de protection des données etc.), qu’en pensez-vous? Avant de répondre, prenez quand même quelques minutes pour l’écouter :slightly_smiling_face:

Salut !

J’ai ouï dire que le bonhomme était pour le moins enthousiaste en matière d’IA et qu’il n’y avait aucun problème à foncer dans cette merveilleuse technologie… J’ai noté l’URL pour l’écouter ces prochains jours. Merci !

a+

Trollhebus

Hello,

En effet, c’est un techno-enthousiaste qui fait abstraction de ce qui peut faire peur ou de ce qui dérange, à savoir, les limites planétaires (qui sont têtues), les impacts cognitifs de ces systèmes, les pertes de savoirs et de savoir-faire, les destructions d’emplois, la perte de sens au niveau philosophique de la condition humaine, etc…

On a tendance à l’oublier, mais les tâches intellectuelles qui sont rébarbatives, pénibles ou encore « prise de tête » sont discrètement celles qui nous font progresser… Les déléguer à la machine, c’est juste nous enlever une opportunité de mieux structurer notre cerveau.

a+

Trollhebus

Et si on invitait plusieurs personnalités actives dans ce microcosme? Par exemple un débat ou une table ronde avec Asma Mhalla dont on peut écouter l’éclairage ici.


Technopolitique

Merci pour le partage, c’est noté ! Oui, c’est clair qu’il faudrait inviter quelqu’un.