En l’absence d’une réglementation fédérale plus stricte, certains États américains ont commencé à réglementer les applications offrant une “thérapie” via l’intelligence artificielle, alors que de plus en plus de personnes se tournent vers l’IA pour des conseils en santé mentale.

Cependant, toutes les lois adoptées cette année ne couvrent pas entièrement le paysage en rapide évolution des logiciels d’IA. Les développeurs d’applications, les décideurs politiques et les défenseurs de la santé mentale estiment que les lois des États ne suffisent pas à protéger les utilisateurs ni à tenir les créateurs d’applications responsables des technologies nuisibles.

Karen Andrea Stefan, directrice exécutive et cofondatrice de l’application de chat en santé mentale “Air Kik”, a déclaré : “La vérité est que des millions de personnes utilisent ces outils et elles ne vont pas arrêter.”

Les lois des États varient : l’Illinois et le Nevada ont interdit l’utilisation de l’IA pour le traitement de la santé mentale, tandis que l’Utah a imposé certaines restrictions aux chatbots thérapeutiques, notamment la protection des “informations de santé des utilisateurs” et l’obligation d’indiquer clairement que le chatbot n’est pas humain. La Pennsylvanie, le New Jersey et la Californie étudient des moyens de réglementer la thérapie par IA.

L’impact sur les utilisateurs varie. Certaines applications ont bloqué l’accès dans les États ayant adopté des interdictions, tandis que d’autres attendent une plus grande clarté juridique.

Beaucoup de lois ne couvrent pas les chatbots génératifs comme ChatGPT, qui ne sont pas promus pour la thérapie mais sont utilisés par un nombre inconnu de personnes à cette fin. Ces robots ont fait l’objet de poursuites judiciaires suite à des incidents tragiques, notamment des utilisateurs perdant le contact avec la réalité ou se suicidant après avoir interagi avec eux.

Valerie Wright, responsable de l’innovation en soins de santé à l’American Psychological Association, a déclaré que ces applications comblent un vide en raison d’une pénurie nationale de prestataires de santé mentale, de la hausse des coûts des soins et des inégalités d’accès parmi les patients assurés.

Elle a ajouté que les chatbots de santé mentale basés sur la science, créés avec la contribution d’experts et supervisés par des humains, pourraient changer la donne.

“Ces robots peuvent aider les gens avant qu’ils ne fassent face à une crise”, a-t-elle dit, notant que “ce n’est pas ce qui est actuellement disponible sur le marché commercial.”

Elle a souligné la nécessité d’une réglementation et d’une supervision fédérales.

Au début du mois, la Federal Trade Commission a annoncé l’ouverture d’enquêtes sur sept entreprises de chatbots IA, dont les sociétés mères d’Instagram, Facebook, Google, ChatGPT, Grok (le chatbot de l’application X) et Snapchat, concernant la manière dont elles mesurent, testent et surveillent les impacts négatifs potentiels de cette technologie sur les enfants et les adolescents. La Food and Drug Administration américaine tiendra une réunion consultative le 6 novembre pour examiner les dispositifs de santé mentale alimentés par l’IA.

Wright a indiqué que les agences fédérales envisagent d’imposer des restrictions sur la manière dont les chatbots sont commercialisés, de limiter les pratiques addictives, d’exiger la divulgation qu’ils ne fournissent pas de conseils médicaux, de suivre et signaler les pensées suicidaires, et de fournir une protection juridique aux lanceurs d’alerte dénonçant les mauvaises pratiques des entreprises.

De “applications compagnons” à des thérapeutes assistés par IA en passant par des applications de santé mentale, l’utilisation de l’IA dans les soins de santé varie considérablement et est difficile à définir et à légiférer.

Cela conduit à des divergences réglementaires. Certains États ciblent les applications compagnons conçues uniquement pour l’amitié mais ne traitent pas des soins de santé mentale. Les lois de l’Illinois et du Nevada interdisent les produits prétendant offrir un traitement de santé mentale, avec des amendes allant jusqu’à 10 000 dollars dans l’Illinois et 15 000 dollars dans le Nevada.

Stefan a déclaré qu’il y avait encore beaucoup d’ambiguïté concernant la loi de l’Illinois, et que son entreprise n’a pas été interdite d’accès à cet État.

Au départ, Stefan et son équipe ont évité de qualifier leur chatbot, qui ressemble à un panda dessiné en dessin animé, de thérapeute. Mais lorsque les utilisateurs ont commencé à utiliser ce terme dans les avis, ils l’ont adopté pour que l’application apparaisse dans les résultats de recherche. La semaine dernière, l’entreprise est revenue sur l’utilisation des termes liés à la thérapie et à la médecine, décrivant désormais le bot comme un “bot de soins personnels”.

Stefan a confirmé que le bot ne “fait pas de diagnostic”. Elle se réjouit que les individus abordent l’IA de manière critique, mais s’inquiète de la capacité des États à suivre le rythme de l’innovation en raison de la rapidité des évolutions.

Une entreprise de chatbots tente de reproduire entièrement la thérapie.

En mars dernier, une équipe du Dartmouth College a publié le premier essai clinique randomisé d’un chatbot IA génératif pour traiter les problèmes de santé mentale.

L’objectif était de créer un chatbot appelé “Therabot” pour traiter l’anxiété, la dépression ou les troubles alimentaires.

L’étude a conclu que les utilisateurs ont évalué l’application comme similaire à un thérapeute, et que les symptômes ont considérablement diminué après huit semaines par rapport à ceux qui ne l’ont pas utilisée. Une personne surveille toutes les interactions avec le bot et intervient si la réponse du bot est nuisible ou non fondée sur des preuves.

Nicholas Jacobson, psychologue clinicien à la tête de l’équipe de recherche, a déclaré que les résultats sont prometteurs mais que des études plus larges sont nécessaires pour démontrer si le bot peut fonctionner avec un grand nombre de personnes.