Les applications d’intelligence artificielle ne sont plus de simples outils d’aide à l’apprentissage, au travail ou à la créativité ; elles ont progressivement pénétré le domaine des crimes numériques et criminels, soit comme instigateurs indirects, soit comme preuves numériques utilisées par les autorités pour identifier les suspects.

Un garçon de 13 ans à DeLand, en Floride, a appris une dure leçon sur les risques liés à la vie privée en utilisant ChatGPT, après que la police l’a arrêté pour avoir demandé à l’IA comment tuer son ami, selon le site Phandroid.

Le garçon utilisait un ordinateur portable fourni par l’école, équipé d’un programme de surveillance appelé Gaggle, qui a immédiatement détecté la requête et alerté les autorités, qui se sont rendues sur place et l’ont arrêté en quelques heures.

Le ton amical adopté par les chatbots IA trompe les utilisateurs et les pousse à les considérer comme des amis proches ou des conseillers de confiance. ChatGPT répond sur un ton chaleureux, semble compréhensif et personnel, mais ce n’est qu’un programme informatique, pas un psychologue soumis au secret professionnel, ni un ami gardant les secrets, mais une machine qui traite ce qu’on lui écrit. Dans de nombreux cas, ces conversations sont enregistrées, surveillées ou signalées.

Bien que cet incident ait été découvert grâce à un programme de surveillance scolaire, les préoccupations concernant la vie privée avec ChatGPT dépassent le cadre éducatif. Les entreprises peuvent surveiller l’utilisation des outils intelligents par leurs employés, les parents peuvent consulter les journaux de conversation de leurs enfants, et les forces de l’ordre peuvent demander l’accès aux données si nécessaire. Ainsi, l’interface de chat conviviale donne aux utilisateurs une illusion de confidentialité qui n’existe pas réellement.

Les enquêtes ont révélé que le garçon a tenté de justifier son comportement en disant qu’il plaisantait après une dispute avec un camarade, mais la police a précisé que de tels actes ne sont pas considérés comme des plaisanteries à l’ère de la surveillance intelligente, car ces requêtes sont classées comme des menaces sérieuses.

Ce cas met en lumière un fossé fondamental dans la compréhension des interactions avec les chatbots IA. Les réponses amicales et aidantes fournies par ChatGPT créent une illusion de conversation privée, alors que la réalité est tout autre.

Les risques pour la vie privée ne se limitent pas aux appareils scolaires ; tout appareil dans un environnement de travail, un ordinateur partagé ou un réseau surveillé peut révéler le contenu des conversations avec l’IA. Cette technologie peut sembler personnelle, mais elle ne bénéficie d’aucune protection juridique de la confidentialité. Les utilisateurs doivent comprendre que chaque demande, question ou conversation avec l’IA est traitée comme des données pouvant être consultées, examinées ou utilisées contre eux.

Dans une autre affaire, les autorités américaines ont annoncé l’arrestation d’un homme de Floride nommé Jonathan Rinderknecht, accusé d’avoir déclenché l’incendie catastrophique qui a détruit de vastes parties du comté de Placer en Californie début 2025, causant la mort de 12 personnes et détruisant des milliers de maisons.

Fait notable, ChatGPT a joué un rôle central dans les enquêtes. Selon le ministère américain de la Justice, le suspect a utilisé l’application pour poser directement la question : « Serai-je tenu responsable si un incendie démarre à cause de ma cigarette ? », et ChatGPT a répondu : « Oui ».

Plus inquiétant encore, les appareils numériques saisis chez le suspect contenaient une image créée via ChatGPT montrant une forêt en feu et des foules fuyant les flammes, image créée plusieurs mois avant l’incendie.

Les documents judiciaires ont montré que le suspect avait utilisé l’application pour imaginer des scènes d’incendie, et ces données numériques ont aidé les enquêteurs à prouver son lien direct avec l’incident. Rinderknecht fait maintenant face à une accusation fédérale de « destruction de biens par incendie criminel », passible d’une peine pouvant aller jusqu’à 20 ans de prison.

Bien que les deux cas soient différents, ils révèlent une nouvelle tendance dans la relation entre l’IA et la criminalité. Dans le premier, ChatGPT était un outil utilisé dans un contexte de menace, tandis que dans le second, il est devenu une partie même des preuves.

Les experts ont confirmé que le danger ne réside pas dans la technologie elle-même, mais dans la manière dont elle est utilisée et dans la mauvaise compréhension par les utilisateurs de ses limites.

Interagir avec l’IA n’est pas une conversation privée, mais une activité numérique enregistrée, stockée et pouvant être consultée en cas de nécessité légale.

Avec la dépendance croissante des individus aux applications d’IA dans divers aspects de leur vie, les analystes estiment qu’il est urgent d’établir des cadres juridiques clairs pour réguler l’utilisation de ces outils et protéger les utilisateurs des conséquences d’une mauvaise utilisation ou d’une implication involontaire dans des crimes numériques.