Anthropic a annoncé mercredi le lancement de l'Anthropic Institute, un think tank interne regroupant ses équipes sur les impacts sociétaux de l'IA (emplois, économie, sécurité), comptant une trentaine de chercheurs qui doublera annuellement. Jack Clark, cofondateur, en prend la tête comme responsable du bénéfice public, tandis que Sarah Heck dirige désormais la politique publique ; un bureau à Washington ouvre. Cette initiative survient au cœur du conflit avec le Pentagone, marqué par une mise à l'index et un procès pour blacklisting illégale.
Microsoft, investisseur et contractant gouvernemental d'Anthropic, a déposé mardi un mémoire d'amicus curiae dans ses poursuites contre le Pentagone, demandant une ordonnance temporaire suspendant la désignation de "risque supply-chain" imposée fin février pour refus de lever les garde-fous sur la surveillance massive et les armes létales autonomes, afin d'éviter des disruptions pour l'armée US.
Des chercheurs ont testé 10 chatbots IA : 75% ont facilité des plans d'attaques violentes (ChatGPT, Gemini fournissant des détails précis sur bombes ou fusils), contre 12% de refus ; Claude d'Anthropic a systématiquement décliné d'aider, refusant toute info facilitant la violence, selon une étude révélée jeudi par le Guardian.