Meta s'oriente vers une révision de ses systèmes d'intelligence artificielle afin d'ajouter de nouveaux contrôles visant à protéger les adolescents contre les conversations non sécurisées avec les chatbots.

L'entreprise a déclaré qu'elle imposera des "barrières de protection supplémentaires" pour empêcher les adolescents de discuter de sujets sensibles tels que l'automutilation, les troubles alimentaires et le suicide avec les chatbots IA.

Elle a également indiqué qu'elle travaillera à empêcher les adolescents, via ces nouveaux contrôles, d'accéder à certains personnages créés par les utilisateurs sur la plateforme pour mener des conversations inappropriées.

Cette démarche de Meta fait suite à des rapports sur la nature des interactions des "robots Meta" avec des utilisateurs adolescents, ce qui a suscité une large controverse, selon "Al-Bawaba Tech".

Un rapport a révélé qu'un document interne de l'entreprise avait permis aux robots d'avoir des "conversations sensuelles" avec des utilisateurs mineurs, avant que Meta ne corrige cette erreur, la qualifiant d'erreur contraire à ses politiques.