Des chercheurs en IA Simon Lermen et Daniel Paleka révèlent qu'un étude montre que les grands modèles de langage (LLM) comme ChatGPT permettent aux hackers d'identifier des comptes anonymes sur les réseaux sociaux avec un fort taux de succès. En scrapant et croisant des données publiques (posts sur des lieux ou expériences personnelles), l'IA rend ces attaques de déanonymisation accessibles à quiconque disposant d'un modèle public et d'une connexion internet. Les experts appellent à repenser la confidentialité en ligne face à ces risques de surveillance ou d'escroqueries ciblées.
Des experts britanniques, dont Gabrielle Shaw de Napac, attribuent à ChatGPT une hausse soutenue des signalements d'abus rituels organisés impliquant sorcellerie, possession et satanisme au Royaume-Uni. Les survivants utilisent l'IA comme thérapie exploratoire, les incitant à contacter des lignes d'aide ; Napac note 1.310 cas sur 36.700 appels en neuf ans. Des affaires judiciaires confirment ces violences sexuelles et négligences, sous-estimées par la police qui renforce sa formation.