Siphonage des données personnelles, cyberattaque... Le nouveau robot conversationnel chinois Deepseek-R1 est-il plus risqué que ChatGPT ?

Lancé la semaine dernière et devenu en quelques jours l’application gratuite la plus téléchargée sur l’App store américain devant ChatGPT, le robot conversationnel chinois DeepSeek-R1 a déjà subi une cyberattaque d’ampleur et soulevé de nombreuses questions sur l’utilisation des données personnelles de ses utilisateurs.

Réservé aux abonnés
DeepSeek
L'interface conversationnelle de l'application chinoise DeepSeek-R1.

Depuis son lancement le 20 janvier, le robot conversationnel Deepseek-R1, à la fois puissant et bon marché, ne cesse de faire parler de lui. Si certains se réjouissent de l’opportunité d’une démocratisation de l’usage de l’intelligence artificielle à bas coût qu’il représenterait, d’autres s’inquiètent des risques de fuite des données personnelles.

De premières interrogations de l’Australie et de l’Italie

Le gouvernement australien a été l’un des premiers à réagir via son ministre de l'Industrie et des Sciences. Lors d’une intervention sur la chaîne télévisée nationale ABC mardi 28 janvier, Ed Husic a insisté sur la nécessité d' «être très prudent » face au chatbot chinois, rapporte l’AFP, évoquant les «attentes différentes en matière de protection de la vie privée et de gestion des données» entre la Chine et les pays occidentaux. En 2018, l'Australie avait exclu le géant chinois des télécommunications Huawei de son réseau 5G national pour des raisons de sécurité nationale.

Le même jour, l'autorité italienne de protection des données personnelles (GPDP) publiait un communiqué demandant à la start-up chinoise DeepSeek «quelles données personnelles étaient collectées, à partir de quelles sources et à quelles fins», mais aussi «la base juridique du traitement (des données) et si elles sont stockées sur des serveurs situés en Chine dans le cadre du développement de l'intelligence artificielle générative de DeepSeek». Avec une demande de réponse sous vingt jours. Selon plusieurs médias italiens, quelques heures plus tard, le site de DeepSeek était même devenu inaccessible en Italie, et l'application retirée de l'Apple et du Google Store.

Une application open source téléchargeable localement

S’il est encore tôt pour avoir des réponses précises aux questions posées par la CNIL italienne, la start-up chinoise née à Hangzhou a déjà donné des éléments de réponse, souligne Jérôme Billois, expert en cybersécurité chez Wavestone. «DeepSeek a été transparent. Tout ce qui rédigé dans le robot conversationnel sera utilisé pour faire de l’entraînement». En cela, DeepSeek-R1 se rapproche de son homologue américain ChatGPT.

En revanche, le fait que l’application soit disponible en open source (source ouverte) est plutôt une bonne nouvelle estime l’expert. «En faisant fonctionner le modèle sur ses propres serveurs, on se prémunit contre tout risque d’espionnage».  Autre avantage de l’application chinoise selon lui, «les chercheurs de DeepSeek  ont publié un papier de recherche assez détaillé sur leur méthodologie, permettant à la licorne franco-américaine Hugging Face (spécialisée dans les applications d’IA open source) de ré entrainer leur modèle en enlevant les risques de biais notamment».

Des cyberattaques facilitées par la dimension open source

Autre risque apparu dès les premiers jours d’existence de DeepSeek-R1, la cybercriminalité. Lundi 27 janvier, l’application chinoise subissait une cyberattaque "malveillante à grande échelle" l’obligeant à limiter temporairement les inscriptions d'utilisateurs. Si DeepSeek n’a pas donné plus de précision , Shachar Menashe, vice-président en charge de la sécurité pour le fournisseur de logiciels israélien JFrog, estime que cette dernière est probablement une attaque en déni de service, du fait de son ampleur, tout en estimant que «ce type d'attaque n'est pas lié au fait que DeepSeek soit entraîné sur des données open source». En revanche ajoute l’ingénieur, «l'entraînement sur des données open source peut conduire le modèle à produire des réponses incorrectes. Il ouvre également la possibilité d'attaques sur l'analyseur du modèle, les cybercriminels pouvant diffuser publiquement des données malveillantes, qui seront récupérées comme données d'entraînement pour le modèle ». Une invitation à rester vigilant quant aux réponses fournies par la toute jeune application.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs