Depuis son lancement le 20 janvier, le robot conversationnel Deepseek-R1, à la fois puissant et bon marché, ne cesse de faire parler de lui. Si certains se réjouissent de l’opportunité d’une démocratisation de l’usage de l’intelligence artificielle à bas coût qu’il représenterait, d’autres s’inquiètent des risques de fuite des données personnelles.
De premières interrogations de l’Australie et de l’Italie
Le gouvernement australien a été l’un des premiers à réagir via son ministre de l'Industrie et des Sciences. Lors d’une intervention sur la chaîne télévisée nationale ABC mardi 28 janvier, Ed Husic a insisté sur la nécessité d' «être très prudent » face au chatbot chinois, rapporte l’AFP, évoquant les «attentes différentes en matière de protection de la vie privée et de gestion des données» entre la Chine et les pays occidentaux. En 2018, l'Australie avait exclu le géant chinois des télécommunications Huawei de son réseau 5G national pour des raisons de sécurité nationale.
Le même jour, l'autorité italienne de protection des données personnelles (GPDP) publiait un communiqué demandant à la start-up chinoise DeepSeek «quelles données personnelles étaient collectées, à partir de quelles sources et à quelles fins», mais aussi «la base juridique du traitement (des données) et si elles sont stockées sur des serveurs situés en Chine dans le cadre du développement de l'intelligence artificielle générative de DeepSeek». Avec une demande de réponse sous vingt jours. Selon plusieurs médias italiens, quelques heures plus tard, le site de DeepSeek était même devenu inaccessible en Italie, et l'application retirée de l'Apple et du Google Store.
Une application open source téléchargeable localement
S’il est encore tôt pour avoir des réponses précises aux questions posées par la CNIL italienne, la start-up chinoise née à Hangzhou a déjà donné des éléments de réponse, souligne Jérôme Billois, expert en cybersécurité chez Wavestone. «DeepSeek a été transparent. Tout ce qui rédigé dans le robot conversationnel sera utilisé pour faire de l’entraînement». En cela, DeepSeek-R1 se rapproche de son homologue américain ChatGPT.
En revanche, le fait que l’application soit disponible en open source (source ouverte) est plutôt une bonne nouvelle estime l’expert. «En faisant fonctionner le modèle sur ses propres serveurs, on se prémunit contre tout risque d’espionnage». Autre avantage de l’application chinoise selon lui, «les chercheurs de DeepSeek ont publié un papier de recherche assez détaillé sur leur méthodologie, permettant à la licorne franco-américaine Hugging Face (spécialisée dans les applications d’IA open source) de ré entrainer leur modèle en enlevant les risques de biais notamment».
Des cyberattaques facilitées par la dimension open source
Autre risque apparu dès les premiers jours d’existence de DeepSeek-R1, la cybercriminalité. Lundi 27 janvier, l’application chinoise subissait une cyberattaque "malveillante à grande échelle" l’obligeant à limiter temporairement les inscriptions d'utilisateurs. Si DeepSeek n’a pas donné plus de précision , Shachar Menashe, vice-président en charge de la sécurité pour le fournisseur de logiciels israélien JFrog, estime que cette dernière est probablement une attaque en déni de service, du fait de son ampleur, tout en estimant que «ce type d'attaque n'est pas lié au fait que DeepSeek soit entraîné sur des données open source». En revanche ajoute l’ingénieur, «l'entraînement sur des données open source peut conduire le modèle à produire des réponses incorrectes. Il ouvre également la possibilité d'attaques sur l'analyseur du modèle, les cybercriminels pouvant diffuser publiquement des données malveillantes, qui seront récupérées comme données d'entraînement pour le modèle ». Une invitation à rester vigilant quant aux réponses fournies par la toute jeune application.



