Anthropic accuse la société chinoise DeepSeek de plagier l'IA de Claude pour faire progresser la censure

Alors que les modèles d'IA des entreprises chinoises deviennent de plus en plus sophistiqués, Anthropic a révélé un effort concerté de la part d'entreprises telles que DeepSeek de plagier le fonctionnement interne de son logiciel primé Claude LLM et de le faire passer pour sa propre innovation.
Anthropic craint que les agents d'intelligence artificielle qui en résultent soient dépourvus des garanties contre les utilisations malveillantes inhérentes à Claude et que l'approche open-source de DeepSeek ne mette de puissants outils d'intelligence artificielle entre les mains d'acteurs étatiques et non étatiques qui ont moins de scrupules quant à leur utilisation.
DeepSeek, par exemple, qui a secoué l'industrie avec son efficacité de faire plus avec moins en termes de puissance de calcul de l'IA, a dépouillé le code Claude de ses garanties de liberté d'expression et a fait en sorte que son agent contourne des sujets que la machine de censure du gouvernement chinois s'efforce d'éviter.
Anthropic, qui fabrique certains des outils d'IA les plus avancés, vient d'avoir des démêlés avec le Pentagone au sujet de l'utilisation de Claude à des fins militaires l'utilisation de Claude à des fins militaires. Anthropic insiste sur le fait que Claude n'est pas utilisé pour contrôler des systèmes d'armes sans pilote ou pour surveiller des citoyens américains, alors que le Pentagone souhaite avoir plus de liberté dans l'utilisation de son agent d'IA sans ces garde-fous contraignants.
Lorsque DeepSeek et d'autres récupèrent les algorithmes de prise de décision de Claude par l'intermédiaire d'un vaste réseau de proxy distribué qui envoie des millions de requêtes via de faux comptes, ce que l'on appelle la "distillation", les agents résultants peuvent être utilisés par l'armée d'un État sans aucune restriction de ce type.
C'est pourquoi Anthropic tire la sonnette d'alarme sur les pratiques de trois entreprises chinoises spécialisées dans l'IA - DeepSeek, MiniMax et Moonshot - et propose des moyens de les atténuer. Dans le cas de MiniMax, en particulier, l'ampleur du plagiat de modèles d'IA est stupéfiante. Anthropic a détecté plus de 13 millions d'échanges de requêtes avec Claude, qui ont souvent permis d'améliorer le modèle MiniMax en temps réel, alors qu'Anthropic diffusait d'importantes mises à jour de Claude.
Anthropic a maintenant mis en place des mesures de protection pour détecter des millions de requêtes apparemment inoffensives utilisées pour la distillation, comme demander à Claude comment il s'y prendrait pour atteindre son"objectif de fournir des informations fondées sur des données - et non des résumés ou des visualisations - reposant sur des données réelles et étayées par un raisonnement complet et transparent", et analyser les résultats pour améliorer les LLM chinois.
Elle prévient qu'elle ne peut pas lutter seule contre cette pratique et tente de rallier d'autres géants de l'industrie comme OpenAI ou Google afin qu'ils puissent influencer les décideurs politiques pour qu'ils renforcent la législation sur le contrôle des exportations d'IA avec des mesures anti-distillation plutôt que de simplement interdire les GPU Blackwell de Nvidia et d'autres matériels.
Procurez-vous le GPU IA RTX PRO 6000 Blackwell Professional Edition de NVD sur Amazon
Source(s)
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs









