Notebookcheck Logo

Anthropic dévoile les modèles d'IA Claude 4 : Plus intelligents et potentiellement plus dangereux

Anthropic lance la série Claude 4 AI tout en activant des mesures de sécurité plus strictes contre l'utilisation abusive dans le développement d'armes. (Source de l'image : Anthropic)
Anthropic lance la série Claude 4 AI tout en activant des mesures de sécurité plus strictes contre l'utilisation abusive dans le développement d'armes. (Source de l'image : Anthropic)
Anthropic a lancé les modèles d'IA Claude Opus 4 et Sonnet 4, plus intelligents, avec des capacités de codage et d'analyse de données améliorées. Des mesures de sécurité plus strictes ont été mises en œuvre sur son modèle le plus intelligent, Opus 4, afin d'éviter qu'il ne soit utilisé à mauvais escient pour créer des armes.

Anthropic a mis en vente le Claude Opus 4 et Claude Sonnet 4 modèles d'intelligence artificielle dont la précision, les capacités et les performances ont été améliorées.

Opus est le modèle le plus intelligent de l'entreprise, capable de travailler sur des problèmes complexes et difficiles pendant des heures sans interruption. Certains des premiers utilisateurs ont constaté qu'il travaillait de manière autonome sur des tâches de programmation pendant sept heures, et l'intelligence artificielle peut mieux mémoriser les entrées et les résultats pour améliorer les réponses. Sonnet est son modèle général pour des réponses rapides à des questions d'ordre général. Les deux modèles ont amélioré la précision du codage pour aider les programmeurs à créer les applications les plus récentes.

Les deux modèles peuvent agir en tant qu'analystes de données en écrivant du code Python pour analyser et visualiser des ensembles de données. Plusieurs nouvelles fonctions API permettent aux entreprises de créer des applications personnalisées qui intègrent Claude pour améliorer l'analyse des données commerciales et les fonctionnalités. Claude Code permet à l'IA de fonctionner dans des IDE populaires comme VS Code et JetBrains pour aider les programmeurs à mieux coder.

Anthropic a activé ses normes de déploiement et de sécurité AI Safety Level 3 (ASL-3) par précaution pour Claude Opus 4, car l'entreprise n'a pas encore exclu la possibilité que l'IA soit capable d'actes dangereux, comme d'être jailbreakée et utilisée pour créer des armes chimiques, biologiques, radiologiques et nucléaires (CBRN).

Les lecteurs qui souhaitent profiter des avantages de l'IA anthropique au travail peuvent utiliser Plaude Note ou Plaude NotePin pour résumer et transcrire automatiquement des cours et des réunions. Ceux qui travaillent à la maison peuvent discuter avec Claude après en téléchargeant l'application Anthropic pour les ordinateurs portables et les smartphones.

Les modèles d'IA d'Anthropic Claude 4 sont généralement plus performants que le modèle précédent de l'entreprise dans le cadre de tests de référence normalisés en matière d'IA. (Source de l'image : Anthropic)
Les modèles d'IA d'Anthropic Claude 4 sont généralement plus performants que le modèle précédent de l'entreprise dans le cadre de tests de référence normalisés en matière d'IA. (Source de l'image : Anthropic)
Anthropic Claude Opus 4 est plus intelligent que jamais, ce qui a nécessité la mise en place de mesures de sécurité ASL-3 plus strictes pour l'empêcher de créer des armes dangereuses. (Source de l'image : Anthropic)
Anthropic Claude Opus 4 est plus intelligent que jamais, ce qui a nécessité la mise en place de mesures de sécurité ASL-3 plus strictes pour l'empêcher de créer des armes dangereuses. (Source de l'image : Anthropic)
Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2025 05 > Anthropic dévoile les modèles d'IA Claude 4 : Plus intelligents et potentiellement plus dangereux
David Chien, 2025-05-26 (Update: 2025-05-26)