Anthropic : Claude peut maintenant terminer des conversations pour prévenir des utilisations nuisibles
Une innovation majeure dans l'écologie de l'intelligence artificielle
Le 17 août 2025, l'entreprise d'IA Anthropic a révélé une fonction révolutionnaire : le modèle Claude peut désormais terminer des conversations pour éviter des utilisations nuisibles. Cette fonction, baptisée "End Conversation for Harm"