Anthropic accuse DeepSeek de piller ses modèles d'IA
Anthropic a accusé lundi l'entreprise chinoise DeepSeek d'avoir mené une opération d'ampleur visant à utiliser l'assistant d'intelligence artificielle (IA) Claude de la start-up américaine pour développer ses propres modèles, quelques jours après des allégations similaires d'OpenAI.
Selon un message posté sur son site, Anthropic a été visé, outre DeepSeek, par deux autres jeunes acteurs chinois de l'IA, Moonshot AI, à l'origine de l'assistant Kimi, et MiniMax, géniteur de l'interface Talkie.
DeepSeek avait créé l'émoi dans le monde de l'IA en janvier 2025 après la mise en ligne, fin décembre, de son modèle d'IA V3, aux performances jugées comparables à celles des meilleurs produits américains, tout en affirmant n'avoir dépensé qu'une fraction des investissements des grands noms américains.
Anthropic reproche à ces trois entités d'avoir créé environ 24.000 comptes pour accéder séparément à Claude, lesquels ont ensuite eu plus de 16 millions de conversations avec l'assistant IA.
Il s'agissait, toujours selon l'entreprise californienne, de pratiquer la "distillation", une méthode qui consiste à entraîner et développer un modèle de moindre capacité en s'inspirant des réponses produites par un autre modèle aux possibilités supérieures.
La "distillation" n'est pas répréhensible en soi, rappelle Anthropic, de nombreux protagonistes de l'IA l'utilisant pour mettre au point des versions plus compactes de leurs propres modèles.
Mais elle peut aussi être utilisée comme un détournement, qui permet à des sociétés de développer en accéléré leurs modèles, à un coût nettement inférieur à celui d'une conception classique.
Ces sociétés peuvent aussi modifier, pour leur version, les règles et limites appliquées au modèle d'origine, ce qui peut notamment ouvrir la voie à des utilisations malveillantes.
Anthropic indique que DeepSeek a notamment demandé à Claude de révéler toutes les étapes de la préparation de la réponse à une demande, des informations utiles à la mise au point de son propre modèle.
Des développeurs de DeepSeek, qu'Anthropic a pu identifier, ont aussi décrypté comment Claude abordait certains sujets sensibles, notamment relatifs aux dissidents et à l'autoritarisme.
Il s'agissait "probablement" pour eux "d'entraîner les modèles de DeepSeek pour qu'ils détournent les conversations sur des sujets soumis à la censure" par les autorités chinoises, estime Anthropic.
La publication de l'entreprise américaine intervient quelques jours seulement après que son principal rival, OpenAI, a transmis à des élus au Congrès un mémo dénonçant des manoeuvres similaires de DeepSeek pour piller ses modèles.
La polémique intervient alors que le monde de la tech attend, d'un jour à l'autre, la sortie du nouveau modèle de DeepSeek, V4.
H.Henry--JdCdC