J’ai pu visionner une vidéo très intéressante du blog Blast avec comme sujet :
TAY : L’INTELLIGENCE ARTIFICIELLE DEVENUE NAZIE EN 24H SUR TWITTER
Ce que je trouve intéressant dans cette vidéo et dans les arguments mobilisés, c’est dans la différenciation entre intelligence humaine et intelligence artificielle. C’est un sujet complexe et on voit de plus en plus d’avis sur internet comme quoi toute forme d’intelligence « biologique » peut théoriquement être modélisée en formules mathématiques et donc intégrées dans une IA. Intuitivement, je reste convaincu que c’est impossible et même dangereux de penser de la sorte. Mais je n’avais pas l’argumentation. Cette vidéo me donne quelques pistes.
Qu’en pensez-vous ? Est-ce un bon sujet à publier sur le site d’itopie ?
Autre possibilité pour favoriser le débat d’idées au sein de la coopérative : passer cette vidéo lors de l’apéro coopérateur·trice·s participatif le 29 novembre. Qu’en pensez-vous ?
Tay est déjà basé sur de la technologie obsolète.
Un peu plus récemment (mais ça commence déjà à sérieusement dater), microsoft a eu d’autres déboires avec les agents conversationnels :
Ceci dit, les progrès d’OpenAI sont incommensurables depuis cette époque, déjà, et les problèmes mentionnés dans les deux articles ci-dessus sont devenus potentiellement plus graves à cause de l’architecture hybride (core AI / interface software déterministe) de ChatGPT.
Je m’explique :
il était facile de mettre en évidence les biais des anciennes générations d’agents conversationnels.
chatgpt se comporte comme un assistant neutre, et insiste assez lourdement sur sa prétendue neutralité
les modèles gpt sous-jacents sont malgré tout biaisés (et c’est inévitable)
cela produit des conversations assez surprenantes, dont voici un exemple :
J’ai abordé le sujet de la propriété intellectuelle, et des questions morales entourant l’infraction à la propriété intellectuelle. J’ai échangé quelques messages avec chatgpt en mentionnant plusieurs exemples, en restant (au début) factuel : on se met d’accord sur des faits, et on pose des questions sur la moralité.
Une fois que c’était fait, je donne un argument pour justifier que sous certaines conditions, il peut être moral d’enfreindre la propriété intellectuelle. chatgpt m’a immédiatement répondu avec une liste d’arguments pour contrer mon argument, et a conclu par une phrase du style « voilà un point de vue impartial, neutre et équlibré ».
Lorsque je lui ai fait remarquer qu’il prenait unilatéralement la défense des ayant droits, il a admis sans difficulté qu’il n’avait pas présenté d’argument dans le sens inverse.
Cela montre pour moi les limites de l’approche consistant à tenter de pallier aux biais des modèles entraînés par un système externe à l’IA, bien que cette approche soit particulièrement efficace dans d’autres domaines d’application de l’IA.
Merci bien pour cette mise à jour du sujet et pour ton analyse.
L’IA devient incontournable et nous pensons à itopie qu’il faut qu’on monte en compétences, non pas pour l’utiliser, mais pour comprendre ce qu’elle représente et quels sont les risques sous-jacents (et je pense qu’ils sont nombreux).
Raison pour laquelle, nous pensons aborder ce point lors du prochain apéro coopérateur·trice·s participatif, le 29 novembre prochain à 18h. Tu es le bienvenu.
Tout à fait, il est important de bien comprendre la manière dont cela fonctionne, les choses que ça fait bien et les choses que ça fait moins bien, parce que ça devient omniprésent, et ça ne va pas aller en s’améliorant.
J’aurais beaucoup aimé pouvoir participer mais j’habite malheureusement désormais trop loin pour pouvoir participer aux apéros…
Je me permets de partager le petit livre du deep learning de François Fleuret, une pointure dans le domaine qui est prof à l’UniGE : The Little Book of Deep Learning
Il est très bien fait, gratuit, et rentre dans le détail.
On pourrait peut-être inviter Matthieu Corthésy pour parler d’IA (et de productivité, d’usage du temps, de protection des données etc.), qu’en pensez-vous? Avant de répondre, prenez quand même quelques minutes pour l’écouter
J’ai ouï dire que le bonhomme était pour le moins enthousiaste en matière d’IA et qu’il n’y avait aucun problème à foncer dans cette merveilleuse technologie… J’ai noté l’URL pour l’écouter ces prochains jours. Merci !
En effet, c’est un techno-enthousiaste qui fait abstraction de ce qui peut faire peur ou de ce qui dérange, à savoir, les limites planétaires (qui sont têtues), les impacts cognitifs de ces systèmes, les pertes de savoirs et de savoir-faire, les destructions d’emplois, la perte de sens au niveau philosophique de la condition humaine, etc…
On a tendance à l’oublier, mais les tâches intellectuelles qui sont rébarbatives, pénibles ou encore « prise de tête » sont discrètement celles qui nous font progresser… Les déléguer à la machine, c’est juste nous enlever une opportunité de mieux structurer notre cerveau.
Et si on invitait plusieurs personnalités actives dans ce microcosme? Par exemple un débat ou une table ronde avec Asma Mhalla dont on peut écouter l’éclairage ici.
Si je n’avais pas moi-même fait l’expérience d’être surpassé en intelligence par mon propre enfant, la lecture de cet essai fascinant m’aurait sans doute effrayé.
Peux-tu nous dire si cet essai reste cantonné dans la fascination et la sidération, ou au contraire, ce essai apporte-t-il des éclairages technocritiques nouveaux ?
L’Etat de Genève a produit un guide d’utilisation de l’IA à destination de ses employé-es, consultable en ligne. Dans les dernières pages du document, quelques exemples d’utilisation appropriée ou non intéresseront les développeurs-euses et les data-analysts.
Merci bien pour ce partage. C’est dans ma liste de lecture.
Une ressource très intéressante sur le sujet :
Autre avis sur l’IA, par Olivier Hamant (que je vais peut-être publier sur le site d’itopie) :
Ringardiser la performance N°29
L’intelligence artificielle est-elle une menace? En hybridant des idées lointaines, l’IA peut être vue comme une source de sérendipidité, et donc une aide à la créativité. A part cet aspect plutôt fertile, les arguments sur les dangers de l’IA sont nombreux.
Son nom d’abord: « intelligence ». Comme les technologies « smart » (smart fridge, smart cities, etc.), une certaine idéologie de la performance a confisqué la notion d’intelligence: « Etre intelligent = être efficace ». Je n’ai pas besoin ici de répéter qu’être efficace, c’est atteindre son objectif, et donc rater tous les autres, selon l’adage zen. Une extrême fragilité au moment où le monde devient instable (du climat à la géopolitique)
Son qualificatif ensuite: « artificielle » qui cette fois confisque la notion d’art, alors que les technologies de l’IA ne sont basées que sur des méthodes de corrélation statistique, très loin de l’approche sensible donc. L’IA est plus proche d’un sondage que de l’élaboration sincère, pressante ou joyeuse d’une symphonie. Avec l’IA, on ne voit que le produit, on perd le bonheur du chemin. L’IA réduit l’art à un automatisme et nous déshumanise. Rappelons que l’IA n’a pas de corps, et que nos relations au monde passent d’abord par notre corps, et non par du calcul.
Son caractère invasif: L’ « alien » déferlant que nous attendions de Mars est finalement venu… de la Silicon valley (qui a aussi des projets pour Mars, en toute cohérence donc). Comme le dit Yuval Noah Harari, l’IA est devenue le premier éditeur de contenu au monde. C’est l’IA qui choisira la suite de vos contenus sur Google ou sur Youtube, et donc par ricochet, vos idées, vos choix politiques, vos activités. L’IA est d’abord au service d’une hégémonie culturelle de l’optimisation (en auto-amplification, étant elle-même le produit de l’optimisation)
Son caractère totalitaire, enfin: abus sémantique, déshumanisation et hégémonie culturelle sont toutes au service d’un projet totalitaire, où l’injonction de performance passe avant la vie, et sa robustesse plurielle.
Comment lutter? Certains diront qu’il faut débrancher, d’autres diront qu’il faut réglementer, d’autres enfin parleront de question politique majeure.
Au fond, l’IA est surtout un symptôme. C’est notre obsession pour la performance qui pose problème! L’IA est mortifère dans sa formidable dépendance aux matières, à l’énergie, à l’eau… Nous augmentons notre confort à court terme (performance augmentée), en multipliant les béquilles algorithmiques, pour mieux condamner notre avenir (robustesse diminuée). L’IA est surtout mortifère parce qu’elle nous enferre dans l’idéologie du contrôle et de la performance, qui produit surtout de la fragilité et du burnout (des humains et des écosystèmes).
Comment lutter? A nous les humains de proposer une contre-hégémonie culturelle, plurielle et reliée au vivant… Un premier pas: Ringardiser le culte de la performance!
Hello, je trouve personnellement que cette critique semble bâtie sur des affirmations arbitraires et non sourcées: assimilation de l’intelligence à la performance, réduction d’une IA à un modèle statistique, confusion entre humanité et matérialité, prédiction gratuite à tendance paranoïaque, conclusion stérile.
En fait c’est tout l’inverse ! Je t’encourage à lire ses écrits, dont le très bon « Antidote au culte de la performance » chez Gallimard (Antidote au culte de la performanceLa robustesse du vivant - itopie informatique), mais aussi « La troisième voie du vivant » et « De l’incohérence ». Toute sa théorie est au contraire très sourcée, et basée sur ses recherches scientifiques. Il est biologiste et compare justement les fonctionnements systémiques des systèmes vivants et des systèmes humains.
Le texte que j’ai mis ci-dessus est plus un commentaire dans une série sur « l’injonction à la performance ».
Tu trouveras aussi des interview et conférences sur le net. C’est clair qu’il a une parole inhabituelle et qui est de fait dérangeante, mais si on entre dans son système, c’est réellement prodigieux.