DeepSeek bloqué en Corée du Sud : enjeux de sécurité des données avec les IA chinoises
Jacky West / March 14, 2025

DeepSeek bloqué en Corée du Sud : enjeux de sécurité des données avec les IA chinoises
La Corée du Sud vient de prendre une décision importante concernant l'utilisation de l'intelligence artificielle chinoise sur son territoire. Les autorités sud-coréennes ont annoncé le retrait de DeepSeek, un chatbot d'IA développé en Chine, des boutiques d'applications locales. Cette mesure intervient dans un contexte mondial de méfiance croissante envers les technologies chinoises et soulève d'importantes questions sur la sécurité des données personnelles à l'ère de l'IA.
Pourquoi la Corée du Sud bloque-t-elle DeepSeek ?
La commission sud-coréenne chargée de la protection des données personnelles a justifié cette décision par la nécessité d'"examiner en détail les pratiques de la société concernant le traitement des données personnelles". Selon Choi Jang-hyuk, vice-président de cette commission, DeepSeek a déjà "reconnu certains manquements" en matière de respect de la vie privée.
Cette suspension n'est pas une interdiction définitive mais une mesure temporaire. L'application n'est plus disponible au téléchargement depuis le 15 février 2025, bien qu'elle continue de fonctionner pour les utilisateurs qui l'ont déjà installée. Ces derniers sont d'ailleurs appelés à "utiliser le service avec précaution" et à "s'abstenir d'entrer leurs informations personnelles" en attendant les conclusions de l'enquête.
Plusieurs ministères sud-coréens, notamment ceux de la Défense et du Commerce, avaient déjà pris les devants en bloquant l'accès à DeepSeek sur leurs ordinateurs début février. Cette décision semble particulièrement stratégique pour un pays qui abrite des géants technologiques comme Samsung Electronics et SK Hynix, fournisseurs majeurs de microprocesseurs avancés utilisés dans les serveurs d'IA.
Les préoccupations spécifiques concernant DeepSeek
Parmi les inquiétudes soulevées par les autorités sud-coréennes, on trouve la collecte excessive de données personnelles. Selon la politique de confidentialité de DeepSeek, l'entreprise collecte notamment des informations sur "les frappes au clavier", c'est-à-dire toute interaction qu'un utilisateur effectue avec son clavier.
Pratiques problématiques | Risques potentiels |
---|---|
Collecte des frappes au clavier | Capture potentielle de mots de passe, informations sensibles |
Transmission de données à des tiers | Partage possible avec le gouvernement chinois |
Manque de transparence | Difficultés pour les utilisateurs de comprendre l'utilisation de leurs données |
Absence de serveurs locaux | Données potentiellement stockées en Chine, hors juridiction sud-coréenne |
Comme le souligne Youm Heung-youl, spécialiste de la sécurité des données à l'université Soonchunhyang en Corée du Sud : "En Chine, lorsque le gouvernement demande l'accès aux données des utilisateurs, les entreprises sont légalement tenues de les fournir". Cette obligation légale constitue une préoccupation majeure pour les autorités sud-coréennes et d'autres pays démocratiques.
Un mouvement mondial de méfiance envers les IA chinoises
La Corée du Sud n'est pas le seul pays à prendre des mesures restrictives contre DeepSeek. Un mouvement global de prudence se dessine face aux technologies d'IA développées en Chine :
- Taïwan a interdit aux agences gouvernementales d'utiliser le chatbot, invoquant des risques pour la "sécurité nationale"
- L'Australie a ordonné le retrait des programmes de DeepSeek des appareils gouvernementaux
- Dans l'Union européenne, l'autorité italienne de protection des données a lancé une enquête et interdit à DeepSeek de traiter les données des utilisateurs italiens
- En France, la CNIL a réclamé des explications sur le traitement des données
- Aux États-Unis, une proposition de loi vise à empêcher l'utilisation de DeepSeek sur les appareils gouvernementaux pour des raisons de cybersécurité
Cette méfiance s'inscrit dans un contexte plus large de tensions géopolitiques et de préoccupations concernant la sécurité des données. Comme l'explique notre analyse sur la géolocalisation des IA, la question de savoir où et comment les données sont traitées devient cruciale dans le paysage technologique mondial.
Comparaison avec d'autres modèles d'IA internationaux
Si DeepSeek fait l'objet d'une attention particulière, il est intéressant de comparer ses pratiques avec celles d'autres grands modèles d'IA :
Similitudes et différences avec les modèles occidentaux
Les conditions générales de DeepSeek comportent une section sur la transmission des données personnelles à des tiers très semblable à celle de ChatGPT d'OpenAI. Cependant, le cadre juridique dans lequel ces entreprises opèrent diffère considérablement.
Alors que Grok 3 d'Elon Musk et ChatGPT sont soumis aux lois américaines et européennes sur la protection des données, DeepSeek évolue dans un environnement réglementaire chinois où les entreprises ont moins de marge de manœuvre face aux demandes gouvernementales.
Le développement d'alternatives régionales
Face à ces préoccupations, on observe l'émergence d'initiatives régionales visant à développer des modèles d'IA plus respectueux des spécificités culturelles et des réglementations locales. Par exemple, l'Amérique latine prépare le lancement de LatamGPT pour mi-2025, un modèle d'IA développé localement et adapté aux particularités culturelles de la région.
En Europe, Mistral AI développe des centres de données verts en France, combinant souveraineté numérique et responsabilité écologique. Ces initiatives témoignent d'une volonté croissante de développer des alternatives aux modèles dominants, qu'ils soient américains ou chinois.
Les implications pour la sécurité des données personnelles
L'affaire DeepSeek soulève des questions fondamentales sur la sécurité des données personnelles à l'ère de l'intelligence artificielle :
La question de la souveraineté numérique
Pour de nombreux pays, l'utilisation d'IA développée à l'étranger pose la question de la souveraineté numérique. Comme le montre notre article sur l'adoption de l'IA générative en entreprise, le choix des fournisseurs de technologies devient une décision stratégique avec des implications en matière de sécurité nationale.
La crainte que des données sensibles puissent être exploitées par des gouvernements étrangers pousse de plus en plus d'États à privilégier des solutions développées localement ou par des partenaires de confiance.

Transparence et contrôle des données
L'un des principaux reproches adressés à DeepSeek concerne le manque de transparence sur l'utilisation des données collectées. Cette problématique n'est pas propre aux entreprises chinoises, mais elle prend une dimension particulière dans ce contexte géopolitique.
Les utilisateurs et les régulateurs exigent de plus en plus de pouvoir comprendre et contrôler la manière dont leurs données sont utilisées par les systèmes d'IA. Cette tendance se reflète dans des réglementations comme le RGPD en Europe et l'AI Act récemment adopté.
Perspectives et réactions
Face à ces restrictions, les réactions ne se sont pas fait attendre :
La position de la Chine
Le gouvernement chinois a réagi en affirmant qu'il "n'exigera jamais des entreprises ou des individus qu'ils collectent ou stockent illégalement des données". Pékin dénonce par ailleurs une "politisation des questions économiques, commerciales et technologiques" et voit dans ces mesures restrictives une forme de protectionnisme déguisé.
L'avenir de DeepSeek sur le marché international
Pour DeepSeek, ces restrictions représentent un obstacle majeur à son expansion internationale. L'entreprise devra probablement adapter ses pratiques en matière de protection des données pour regagner la confiance des régulateurs et des utilisateurs à l'étranger.
Cette situation illustre les défis auxquels sont confrontées les entreprises technologiques chinoises qui souhaitent s'implanter sur les marchés occidentaux, dans un contexte de méfiance croissante et d'exigences réglementaires de plus en plus strictes.
Conclusion : vers une fragmentation du paysage de l'IA ?
L'affaire DeepSeek en Corée du Sud s'inscrit dans une tendance plus large de régionalisation des technologies d'IA. Face aux préoccupations concernant la sécurité des données et la souveraineté numérique, nous assistons à l'émergence de blocs technologiques distincts, avec des écosystèmes d'IA spécifiques à certaines régions ou alliances géopolitiques.
Cette évolution pourrait avoir des conséquences importantes sur le développement futur de l'IA, en favorisant la diversité des approches mais aussi en créant potentiellement des barrières à la collaboration internationale et à l'interopérabilité des systèmes.
Pour les utilisateurs et les entreprises, il devient essentiel de comprendre ces enjeux géopolitiques et de sécurité lorsqu'ils choisissent leurs outils d'IA. Si vous souhaitez approfondir votre compréhension de ces questions et découvrir des alternatives sécurisées pour vos besoins en IA, inscrivez-vous gratuitement à Roboto pour accéder à des conseils personnalisés et des solutions adaptées à vos exigences en matière de sécurité des données.