En l’absence d’une réglementation fédérale plus stricte, certains États américains ont commencé à réglementer les applications offrant un “traitement” par intelligence artificielle, alors que de plus en plus de personnes se tournent vers l’IA pour des conseils en santé mentale.

Toutefois, les lois adoptées cette année ne couvrent pas entièrement le paysage en rapide évolution des programmes d’IA. Les développeurs d’applications, les décideurs politiques et les défenseurs de la santé mentale estiment que les lois étatiques ne suffisent pas à protéger les utilisateurs ni à tenir les créateurs responsables des technologies nuisibles.

Karen Andrea Stefan, directrice exécutive et cofondatrice de l’application de chat pour la santé mentale “Air Kik”, déclare : “La vérité est que des millions de personnes utilisent ces outils et ne vont pas arrêter.”

Les lois varient selon les États : l’Illinois et le Nevada ont interdit l’utilisation de l’IA pour traiter les troubles de santé mentale, tandis que l’Utah a imposé certaines restrictions aux chatbots thérapeutiques, notamment la protection des informations de santé des utilisateurs et l’obligation d’indiquer clairement que le chatbot n’est pas humain. La Pennsylvanie, le New Jersey et la Californie étudient également des moyens de réglementer la thérapie par IA.

L’impact sur les utilisateurs varie ; certaines applications ont été bloquées dans les États ayant adopté des interdictions, tandis que d’autres attendent une plus grande clarté juridique avant de modifier leurs services.

Beaucoup de lois ne couvrent pas les chatbots génératifs comme ChatGPT, qui ne sont pas promus comme des outils thérapeutiques mais sont utilisés à cette fin par un nombre inconnu d’utilisateurs. Ces bots ont fait l’objet de poursuites judiciaires dans des cas tragiques où des utilisateurs ont perdu le contact avec la réalité ou se sont suicidés après avoir interagi avec eux.

Valerie Wright, responsable de l’innovation en soins de santé à l’American Psychological Association, explique que ces applications comblent un vide en raison du manque national de prestataires de santé mentale, du coût élevé des soins et des inégalités d’accès parmi les patients assurés.

Elle ajoute que les chatbots de santé mentale basés sur la science et supervisés par des humains pourraient changer la donne en aidant les personnes avant qu’elles ne soient en crise, mais souligne que “ce n’est pas ce qui est actuellement disponible sur le marché commercial”.

Elle souligne donc la nécessité d’une réglementation et d’une supervision fédérales.

Au début du mois, la Federal Trade Commission a annoncé l’ouverture d’enquêtes sur sept entreprises de chatbots IA — y compris les sociétés mères d’Instagram, Facebook, Google, ChatGPT, Grok (chatbot de l’application X) et Snapchat — concernant la manière dont elles “mesurent, testent et surveillent les impacts négatifs potentiels de cette technologie sur les enfants et les adolescents.” La Food and Drug Administration américaine tiendra une réunion consultative le 6 novembre pour examiner les dispositifs de santé mentale alimentés par l’IA.

Wright a indiqué que les agences fédérales envisagent d’imposer des restrictions sur la commercialisation des chatbots, de limiter les pratiques addictives, d’exiger la divulgation qu’ils ne fournissent pas de conseils médicaux, de suivre et signaler les pensées suicidaires, et d’offrir une protection juridique aux lanceurs d’alerte dénonçant les mauvaises pratiques des entreprises.

De “applications compagnons” à des thérapeutes assistés par IA en passant par des applications de santé mentale, l’utilisation de l’IA dans les soins de santé varie et est difficile à définir et à réglementer.

Cela conduit à des approches réglementaires divergentes. Certains États ciblent uniquement les applications compagnons conçues pour l’amitié, tandis que l’Illinois et le Nevada ont interdit les produits prétendant offrir un traitement de santé mentale, avec des amendes pouvant atteindre 10 000 dollars dans l’Illinois et 15 000 dollars dans le Nevada.

Stefan a déclaré qu’il reste beaucoup d’ambiguïté concernant la loi de l’Illinois, et que son application “Air Kik” n’a pas été interdite dans cet État. Initialement, ils évitaient d’appeler leur chatbot un thérapeute, mais lorsque les utilisateurs ont commencé à utiliser ce terme dans les évaluations, ils l’ont adopté pour apparaître dans les résultats de recherche.

La semaine dernière, la société est revenue sur l’utilisation des termes liés au traitement et à la médecine. Le site “Air Kik” décrit désormais son chatbot comme “votre conseiller IA compatissant” conçu pour soutenir votre parcours de santé mentale, mais l’appelle maintenant “bot de soins personnels”.

Stefan a confirmé que le bot ne “pose pas de diagnostic.”

Elle a exprimé son inquiétude quant à la capacité des États à suivre le rythme rapide de l’innovation, déclarant : “La vitesse à laquelle tout évolue est énorme.”

Cependant, une entreprise de chatbots tente d’imiter pleinement la thérapie.

En mars, une équipe du Dartmouth College a publié le premier essai clinique randomisé d’un chatbot IA génératif pour traiter les problèmes de santé mentale.

L’objectif était de créer un chatbot appelé “Therabot” pour traiter les personnes souffrant d’anxiété, de dépression ou de troubles alimentaires.

L’étude a conclu que les utilisateurs ont évalué l’application comme similaire à un thérapeute, avec une réduction significative des symptômes après 8 semaines par rapport aux personnes ne l’ayant pas utilisée. Une personne surveille toutes les interactions avec le bot et intervient si les réponses du bot sont nuisibles ou non étayées par des preuves.

Nicholas Jacobson, psychologue clinicien et responsable du laboratoire de recherche, a déclaré que les résultats sont prometteurs mais qu’il faut des études plus larges pour démontrer si le bot peut fonctionner avec un grand nombre de personnes.