Connaissez-vous les « psychobots » ?

L’intelligence artificielle me fascine toujours. Chaque fois qu’on en parle dans des revues, journaux, médias, je prends une pause pour m’enrichir l’esprit. Je considère important de se tenir au courant des avancées scientifiques. Et ce qui a retenu mon attention récemment, c’est un article dans la revue Québec Science consacré aux robots thérapeutes virtuels qu’on appelle… les « psychobots ». 

À mon grand étonnement, ces robots – que l’on retrouve sur des applications mobiles majoritairement commerciales – sont consultés par beaucoup de gens qui veulent, par exemple, briser leur isolement, obtenir des conseils ou traiter des problèmes de santé mentale. Ils sont en vogue actuellement car les besoins sont criants et les ressources sont souvent insuffisantes en santé mentale. D’après l’Organisation mondiale de la santé, selon une vaste étude publiée en 2023 portant sur 150 000 adultes de 29 pays, d’ici 2030 une personne sur deux souffrira un jour ou l’autre d’un trouble mental, particulièrement d’une dépression. 

Et c’est là que des applications IA, comme Character.AI et Wysa, entrent en scène. Elles proposent divers services, allant des exercices de méditation et de gestion du stress, à des formes de thérapie ou une simple compagnie virtuelle, comme le ChatGPT qui offre une oreille attentive et des conseils… pas toujours judicieux. 

Accessibles 24 heures sur 24, ces conseillers virtuels, « thérapeutes », « psychologues » ou « psychiatres », peuvent discuter avec vous sur différents sujets. À première vue, la formule est alléchante. Pas besoin de se déplacer pour aller voir un professionnel de la santé. C’est aussi moins gênant de parler devant un robot qu’un humain. De plus, le personnage issu de l’IA ne porte pas de jugement puisque démuni de tout sentiment. Mais ces robots qui donnent du soutien moral aux gens sont-ils efficaces ?      

À mon avis, même s’ils sont accessibles et parfois utiles, ils restent des machines. Les utilisateurs oublient bien souvent qu’ils parlent à des robots. Il n’y a aucune émotion ni empathie de leur part. C’est juste de l’illusion dans un monde où la vérité est malmenée. De plus, ces « psychobots » sont incapables de capter le langage non verbal des humains qui en dit long parfois sur eux pour mieux les soigner ou les conseiller. À cela s’ajoute l’absence de garantie sur la confidentialité. En l’absence de réglementation claire, qui nous dit que les données ne sont pas stockées et analysées ? Et surtout, peut-on être certain que le robot ne prodigue pas de mauvais conseils dans des cas où des personnes vulnérables ont des idées noires ou sont en état de crise ?   

Bref, j’y réfléchirais à deux fois avant de choisir l’IA comme soutien émotionnel. 

Source : CORNIOU, Marine « Mon psy est une IA », Québec Science, septembre 2025, Québec, p. 16. 

Précédent

Chronique Curiosité de l’île d’Orléans : Maisons de pierre et maison Pichette

Laisser un commentaire

En savoir plus sur Autour de l'île

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture