Une revue de presse qui traite des sujets d'Israël et des juifs dans le monde.

AccueilCultureFreud se retourne dans sa tombe : ChatGPT peut-il être utilisé comme...

Freud se retourne dans sa tombe : ChatGPT peut-il être utilisé comme psychologue ?

Freud se retourne dans sa tombe : ChatGPT peut-il être utilisé comme psychologue ?

Il n’y a rien de plus inutile que d’offrir une aide mentale via un bot. Afin de tester si c’était possible, l’entrepreneur Rob Morris a décidé de mener une « expérience » sur des adolescents dans le besoin avec ChatGPT. Son mauvais jugement a fini par prouver pourquoi tout ne peut ou ne devrait pas être résolu avec la technologie.

Le week-end dernier, l’entrepreneur Rob Morris a partagé une expérience qu’il a menée dans un fil Twitter qui est devenu viral. Il a mené l’expérience en utilisant la société qu’il a fondée appelée Koko, qui est une plate-forme d’assistance mentale qui, selon Morris, compte environ 2 millions d’utilisateurs, « la plupart des adolescents ». Morris, un ancien scientifique des données chez Airbnb, a demandé à ceux qui sont censés fournir l’assistance d’utiliser ChatGPT pour formuler des réponses aux personnes en détresse à la recherche d’un soutien émotionnel. Pourquoi? Parce qu’il le peut.
Les conclusions de Morris sont claires : le temps de réponse a été réduit de 50 % et les réponses ont été « très bien notées ». Malgré ces mesures « impressionnantes », l’expérience – qui, selon lui, a été menée sur 4 000 personnes – a été rapidement arrêtée car « une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n’a pas fonctionné. L’empathie simulée semble bizarre, vide . »
Pour expliquer pourquoi les gens ont résisté aux conseils psychologiques d’un générateur de texte, Morris a utilisé comme exemple la différence entre l’obtention d’une carte électronique et d’une carte physique. « Même si les mots sont les mêmes dans les deux cas, nous pourrions apprécier l’effort qui vient d’aller au magasin, de choisir une carte, de l’envoyer, etc. »
Laissons de côté, un instant, la critique éthique de « l’expérience ». Ne discutons pas, juste cette fois, qu’il n’y a rien ici qui ressemble à la « recherche » mais plutôt au « développement de produits » ; Ignorons le fait que Morris, le scientifique des données, ne possède pas les compétences professionnelles pour déployer une telle « expérience » sur des milliers de personnes cherchant une aide mentale ; Et nous ne nous attarderons pas sur le fait qu’il l’a effectué de manière non supervisée ou approuvée sur des personnes vulnérables qui n’ont pas donné leur plein consentement (c’est ce que suggère Morris, bien qu’il fournisse des versions contradictoires à ce sujet). Si nous mettons toutes les questions éthiques de côté, nous pouvons nous tourner vers la leçon la plus importante de « l’expérience » – elle est sans valeur.
Pour expliquer pourquoi l’expérience est carrément sans valeur, nous devons commencer par expliquer ChatGPT. Le modèle de langage d’OpenAI a été intensivement formé sur d’énormes ensembles de données afin qu’il puisse déterminer de manière probabiliste, compte tenu d’un certain texte d’entrée, quel vocabulaire il sait qui viendra ensuite. Parce que c’est, eh bien – un ordinateur, il sait comment produire une réaction beaucoup plus rapide qu’une personne, parfois même 50% plus vite. Le modèle sophistiqué sait également comment construire des combinaisons textuelles convaincantes ou, comme l’a écrit Morris, « élégantes », ce qui peut avoir contribué à la « note élevée » qu’il a reçue (bien que Morris n’explique pas comment les commentaires ont été notés).
Mais ici l’histoire se termine. Les résultats produits par ChatGPT ne sont pas liés et ne communiquent intentionnellement aucune idée du monde. Les chaînes de mots qu’il produit n’ont aucune intention, et peu importe la quantité d’informations supplémentaires que nous mettons dans le générateur de langage, il ne comprendra jamais « comment le monde fonctionne », les connexions symboliques ou les idées abstraites ; Il est incapable de relier des idées abstraites à d’autres, ni de les séparer ; Il n’a pas la capacité de comprendre en permanence les lois, les règles et les attentes dans le monde et donc il « ment », « invente » et « hallucine » sans arrêt.
Que nécessitent les soins médicaux, physiques et mentaux ? Tous les principes de base décrits ci-dessus. Pourquoi la réponse semble-t-elle « bon marché » et « fausse » ? Cela n’a rien à voir avec l’achat d’une carte de vœux dans un magasin physique, mais si le chatbot est un excellent outil d’imitation, d’auto-complétion et de pastiche, lorsque nous nous parlons, nous ne copions pas ou essayons simplement de connecter des morceaux de texte. Nous explorons constamment, sans même nous en rendre compte, des significations cachées ou sous-entendues, ce qui est dit mais aussi ce qui n’est pas dit. Nous essayons de comprendre si on nous a tout dit, si des informations nous sont cachées et si oui pourquoi, et tirons des conclusions à partir de ce contexte.
Avec cet éventail de capacités, d’expériences, de sentiments et de pensées, nous construisons un modèle complexe du monde et, à travers lui, nous produisons une réponse efficace et intentionnelle à des situations spécifiques. Parfois, la réponse est plus lente qu’un ordinateur, mais seul lui et rien d’autre peut être considéré comme une réponse productive.
A aucun moment une personne raisonnable, ayant une intuition saine de la complexité de l’âme humaine et des soins dont elle a besoin, ne penserait qu’il est utile de référer les personnes en détresse mentale à un générateur de langage, un outil terne et irresponsable, générant des erreurs grossières (qui ne peuvent être anticipé), qui ne comprend pas les systèmes abstraits du monde. Cette expérience n’aurait jamais dû avoir lieu, ni sur la population générale, et surtout pas sur les personnes en détresse mentale, sur les adolescents et autres qui n’y ont pas donné leur consentement explicite.
C’est une conclusion si fondamentale qu’il faut se poser la question : pourquoi Morris avait-il si tort ? Pourquoi pense-t-il que les mots qui sortent d’une personne sont « les mêmes » que ceux d’une machine, et tout ce qui est différent est « l’effort » comme aller au magasin et choisir une carte de vœux.
Afin d’essayer de répondre à la question, nous ne devrions pas – contrairement à Morris ou ChatGPT – prétendre comprendre son esprit ou ce qui s’est passé dans son esprit, mais seulement déduire de son comportement et du fil qu’il a écrit. Il ressort de ceux-ci qu’il existe une attente, ou du moins l’hypothèse, que l’intelligence artificielle « peut » répondre à un besoin d’attention et d’empathie.
Morris se demande dans le fil de discussion si les machines seront un jour capables de surmonter le sentiment creux et peu empathique qu’elles produisent, et répond immédiatement « probablement », peut-être parce qu’elles seront vraiment perfectionnées de cette façon « surtout si elles établissent un rapport avec l’utilisateur au fil du temps,  » il écrit.
Son argument est fondamentalement erroné car, comme mentionné, même si un ordinateur devait mieux imiter l’empathie, il ne comprendrait toujours pas l’état intérieur des humains ou des systèmes abstraits du monde. Par conséquent, même si le modèle est perfectionné, on ne peut toujours pas lui faire confiance ou le croire, et il est absolument important d’éviter de l’utiliser dans quelque chose de substantiel comme un outil de thérapie mentale.
Morris partage un aperçu plutôt déprimant mais pas particulièrement original du monde. Pendant des années, l’attitude dans la Silicon Valley a fortement encouragé que chaque besoin dans le monde physique est un problème qui peut être résolu à l’aide de la technologie. Manque-t-il de médecins, de juges ou d’assistants sociaux ? Nous déploierons des systèmes d’intelligence artificielle pour aider à la productivité. Cela signifie que les cas seront examinés rapidement et, grâce à un aperçu statistique du monde, un traitement, des niveaux de punition ou une hiérarchisation parmi les cas sociaux seront proposés.
Mais les relations interpersonnelles, les besoins sociaux, les soins, l’éducation et le travail n’exigent pas une solution, mais une réponse. Ils demandent plus d’attention humaine, plus de soin, une compréhension plus complexe du monde. La saisie semi-automatique ou le « copier-coller » sophistiqué ne produit pas la profondeur dont nous avons besoin, et tout ne peut ou ne doit pas être résolu avec la technologie.
Source : calcalistech.com
RELATED ARTICLES

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

- Advertisment -
Google search engine

Most Popular

Recent Comments

Contact Us