L’Irlande enquête sur X : l’utilisation des données personnelles européennes pour entraîner l’IA Grok sous la loupe

28 avril 2025

En avril 2025, l’autorité irlandaise de protection des données (DPC) a lancé une enquête officielle visant la plateforme X, anciennement connue sous le nom de Twitter. L’objet de cette investigation ? Vérifier si X a utilisé, sans base légale suffisante, les données personnelles des utilisateurs européens pour alimenter les algorithmes de Grok, son intelligence artificielle développée par xAI, l’entreprise d’Elon Musk.

Ce cas soulève d’importants enjeux juridiques et éthiques, dans un contexte où les modèles d’intelligence artificielle deviennent de plus en plus dépendants des données issues des interactions humaines en ligne.


La DPC dans son rôle de gardien du RGPD

L’Irlande joue un rôle central dans la régulation des données en Europe, car de nombreuses entreprises technologiques — dont X — y ont installé leur siège européen. À ce titre, la DPC agit en tant qu’autorité principale en vertu du Règlement général sur la protection des données (RGPD).

L’enquête actuelle s’inscrit dans une série de mesures visant à faire respecter les principes fondamentaux du RGPD : transparence, minimisation des données, consentement éclairé, et droit des utilisateurs à contrôler l’usage de leurs informations.


X et l’entraînement de Grok : des pratiques opaques ?

Depuis la fin 2023, X a entrepris d’intégrer Grok, un chatbot IA propulsé par xAI, à son écosystème. Cette intelligence artificielle, qui se veut capable d’interagir de manière « humoristique et rebelle », est alimentée par des modèles de langage de grande taille (LLM). Pour les nourrir, une immense quantité de données textuelles est nécessaire — et c’est là que réside le problème.

Des publications publiques sur X, y compris celles d’utilisateurs européens, auraient été utilisées pour entraîner Grok sans que les intéressés en soient clairement informés ni qu’ils aient donné leur consentement. En septembre 2023, X avait discrètement mis à jour sa politique de confidentialité, autorisant par défaut l’usage des données pour l’IA, une pratique qui viole potentiellement le RGPD si elle concerne des résidents de l’UE.


Une enquête qui fait suite à des tensions antérieures

Ce n’est pas la première fois que X se retrouve dans le collimateur des régulateurs européens. En 2024, la DPC avait déjà entamé une procédure contre la plateforme pour des raisons similaires. À l’époque, X avait accepté de suspendre temporairement le traitement des données européennes à des fins d’entraînement IA, le temps que des clarifications soient apportées.

Cependant, la fusion récente entre X et xAI a relancé les inquiétudes, d’autant plus que les mises à jour de la politique de confidentialité de la plateforme restent floues sur l’usage réel des données. La nouvelle enquête vise donc à faire toute la lumière sur les mécanismes de collecte et d’utilisation de ces informations sensibles.


Le RGPD : une épée à double tranchant pour les géants du numérique

Le RGPD impose des conditions strictes pour le traitement des données personnelles. L’un des points les plus cruciaux est le consentement : il doit être libre, spécifique, éclairé et univoque. Or, dans le cas de X, il semblerait que le consentement des utilisateurs n’ait pas été sollicité de manière adéquate, voire pas du tout.

Si les accusations sont confirmées, X s’expose à des sanctions financières lourdes : le RGPD permet à la DPC d’imposer des amendes allant jusqu’à 20 millions d’euros, ou 4 % du chiffre d’affaires mondial de l’entreprise, selon le montant le plus élevé. Au-delà de l’aspect financier, c’est la réputation de X et la confiance des utilisateurs européens qui pourraient être durablement affectées.


Un contexte international tendu autour des données et de l’IA

Cette affaire intervient dans un climat global de méfiance croissante envers les grandes plateformes technologiques, notamment américaines, qui cherchent à exploiter le potentiel de l’intelligence artificielle en utilisant des données massives. L’Union européenne, avec son approche plus protectrice des données personnelles, cherche à affirmer une souveraineté numérique en imposant des règles strictes.

Elon Musk, quant à lui, a souvent critiqué les réglementations européennes qu’il juge trop contraignantes. Il est probable que cette enquête alimente encore davantage les tensions entre les autorités de régulation européennes et les géants de la tech.


Vers un encadrement plus strict de l’intelligence artificielle ?

Le cas de X pourrait bien servir de cas d’école. Il met en évidence la nécessité d’une réglementation plus précise autour de l’IA générative, en particulier concernant les sources de données utilisées pour entraîner les modèles. Jusqu’à présent, les textes législatifs européens comme le RGPD ou le futur AI Act manquent encore de clarté sur ces pratiques spécifiques.

Ce vide juridique pourrait toutefois rapidement être comblé. Le débat est déjà bien entamé au sein des institutions européennes, et des mesures plus contraignantes sur la traçabilité et l’origine des données d’entraînement sont à l’étude.


Que doivent retenir les entreprises du numérique ?

Pour les entreprises opérant en Europe, cette affaire est un signal fort : l’utilisation de données pour entraîner des intelligences artificielles n’est pas un no man’s land réglementaire. Transparence, documentation des processus, évaluation des risques, information claire des utilisateurs : autant d’exigences incontournables si elles veulent éviter les sanctions et préserver leur crédibilité.

D’autre part, cette affaire montre que les utilisateurs eux-mêmes sont de plus en plus sensibles à la manière dont leurs données sont utilisées. La confiance est un capital précieux, et elle passe aujourd’hui par une gestion éthique et conforme des données personnelles.


Conclusion

L’enquête de la DPC sur X s’annonce comme un moment clé dans le débat autour de l’intelligence artificielle et de la protection des données personnelles. Elle rappelle à toutes les entreprises numériques que le respect du RGPD ne saurait être facultatif, même face à la course effrénée à l’innovation technologique. En attendant les conclusions de l’enquête, une chose est sûre : la bataille pour une IA éthique, responsable et respectueuse des droits fondamentaux est plus que jamais d’actualité.


Sources :

  • AP News
  • Reuters
  • Perplexity AI
  • The Register
  • PYMNTS

🚀 Vous souhaitez que votre entreprise anticipe les enjeux de l’intelligence artificielle tout en respectant les réglementations en vigueur ? Contactez les experts de Tamento pour un accompagnement stratégique et responsable dans votre transformation numérique.

Create your account