Les expériences menées sans l'intervention d'outils d'intelligence artificielle ont montré que les participants étaient plus engagés à dire la vérité.

Une nouvelle étude a révélé que les personnes se sentent plus à l'aise pour tromper lorsqu'elles utilisent des outils d'intelligence artificielle, selon le journal britannique "The Independent".

Résultats de la recherche

L'étude, réalisée à l'Institut Max Planck pour le développement humain à Berlin et comprenant 13 expériences avec plus de 8 000 participants, a montré qu'environ 85 % des participants ont eu recours au mensonge lorsqu'ils utilisaient l'IA, tandis que le taux d'honnêteté était de 95 % lorsqu'il n'y avait pas d'interaction avec la machine. Zoe Rahwan, co-chercheuse de l'étude, a expliqué que "l'utilisation de l'IA crée une distance éthique confortable entre les personnes et leurs actions, ce qui peut les amener à demander des comportements qu'ils ne feraient pas eux-mêmes ou ne demanderaient pas aux autres."

Avertissements académiques

La Dre Sandra Waister, professeure de technologie et d'organisation à l'Université d'Oxford, a jugé les résultats préoccupants, déclarant : "Nous devons réfléchir attentivement à la manière dont l'IA est utilisée, en particulier dans les secteurs sensibles tels que la finance, la santé et l'éducation, car les actions individuelles peuvent avoir des conséquences importantes pour la société dans son ensemble." Elle a ajouté : "Si des personnes parviennent à tricher aux examens de médecine, de droit ou de commerce grâce à ces outils, cela ne les prive pas seulement d'un apprentissage correct, mais peut aussi nuire aux autres par des conseils erronés."

Mécanisme de l'expérience

Les chercheurs se sont appuyés sur la "tâche de lancer de dés", où les participants reçoivent une récompense monétaire plus élevée selon le chiffre déclaré. Lorsque la tâche de déclarer les résultats a été confiée à l'IA, les taux de mensonge ont augmenté, un tiers à la moitié des participants demandant au système de tricher complètement. En revanche, les expériences menées sans intervention de la machine ont montré que les participants étaient plus honnêtes.

Besoin de cadres réglementaires

Le chercheur Nils Köbes a déclaré : "L'étude a montré que les gens sont plus enclins à adopter des comportements non éthiques lorsqu'ils peuvent les déléguer aux machines, surtout s'ils ne sont pas obligés de les exprimer explicitement." Le professeur Iyad Rahwan, impliqué dans la préparation de l'étude, a souligné la nécessité de développer des contrôles techniques clairs et une législation, ajoutant : "Mais plus important encore, la société doit affronter une question centrale : que signifie partager la responsabilité éthique avec les machines ?"