Google face aux critiques : pourquoi la transparence en matière de sécurité de l’IA est cruciale

13 mai 2025

L’intelligence artificielle continue de transformer nos sociétés à une vitesse fulgurante. Si les avancées sont impressionnantes, elles s’accompagnent aussi de préoccupations croissantes, notamment en matière de sécurité et d’éthique. Dernier exemple en date : le géant Google est au cœur d’une controverse pour avoir omis des détails cruciaux concernant la sécurité de son nouveau modèle d’IA, Gemini 2.5 Pro. Cet article explore les enjeux de cette controverse, ce qu’elle révèle sur la course actuelle à l’intelligence artificielle et pourquoi la transparence est plus essentielle que jamais.


La promesse de Gemini 2.5 Pro : puissance et polyvalence

Présenté comme l’un des modèles d’IA les plus puissants jamais développés par Google, Gemini 2.5 Pro marque une nouvelle étape vers l’intelligence artificielle générative à usage multiple. Capable de répondre à des requêtes complexes, de raisonner de façon plus poussée et d’automatiser des tâches à grande échelle, ce modèle s’inscrit dans la continuité des ambitions de Google en matière d’IA générative.

Mais au-delà de la performance technique, ce sont les questions de sécurité et de gouvernance qui cristallisent aujourd’hui les critiques.


Une transparence défaillante sur la sécurité

Lors de son lancement, le rapport technique accompagnant Gemini 2.5 Pro ne contenait aucune référence au Frontier Safety Framework (FSF), un cadre pourtant développé par Google lui-même pour encadrer les capacités avancées des IA. Ce silence a choqué de nombreux experts en gouvernance des risques, qui estiment que ce type de cadre devrait être au cœur de tout rapport de publication de modèle IA avancé.

Le FSF, introduit en 2024, a pour but d’identifier les capacités pouvant entraîner des « dommages sévères » et de structurer des réponses en cas de risque. Son absence dans la documentation pose une question simple mais essentielle : Google est-il en train de reléguer la sécurité au second plan ?


Des engagements non tenus

Google avait pourtant pris des engagements clairs. En juillet 2023, lors d’une réunion à la Maison-Blanche, l’entreprise avait promis de publier des rapports de sécurité complets pour chaque modèle majeur. Ces engagements ont été renforcés à l’échelle internationale lors du Seoul Safety Summit, qui posait comme principe la transparence publique des évaluations de sécurité.

Malheureusement, dans le cas de Gemini 2.5 Pro, ces engagements semblent n’avoir été que des paroles en l’air. Le rapport de sécurité n’a été publié que plusieurs semaines après la mise à disposition du modèle. Pire encore : pour une autre version, Gemini 2.5 Flash, aucune documentation de sécurité n’est disponible à ce jour.


Une course à la vitesse : le vrai danger ?

Ce manque de transparence n’est pas un cas isolé. Il s’inscrit dans une tendance plus large : celle d’une course à la mise sur le marché où la priorité semble donnée à la vitesse plutôt qu’à la rigueur.

OpenAI, par exemple, aurait réduit le temps de tests de sécurité de son prochain modèle à seulement quelques jours. Ces délais raccourcis inquiètent, car les modèles les plus avancés posent aussi les risques les plus élevés : manipulation d’opinion, automatisation de cyberattaques, génération de contenu trompeur, etc.

Peter Wildeford, de l’Institute for AI Policy and Strategy, résume le problème ainsi : « Il est impossible de vérifier si Google respecte ses engagements publics, et donc impossible d’évaluer la sécurité de leurs modèles. »


Pourquoi la transparence est essentielle

Dans un secteur aussi sensible que celui de l’IA, la transparence n’est pas un luxe, mais une nécessité. Elle permet :

  • D’instaurer la confiance auprès du public et des institutions ;
  • De garantir une redevabilité des acteurs industriels ;
  • De favoriser la recherche indépendante sur les risques des modèles IA ;
  • De prévenir les abus en documentant les capacités dangereuses.

Sans cette transparence, le risque est de répéter les erreurs du passé, comme celles que l’on a connues avec les réseaux sociaux ou les technologies de surveillance.


Les bonnes pratiques à adopter

Pour que la sécurité de l’IA ne soit pas sacrifiée sur l’autel de la rapidité et de la concurrence, plusieurs bonnes pratiques peuvent être mises en place :

  • Des rapports de sécurité obligatoires avant la mise sur le marché ;
  • Des audits externes indépendants des modèles avant publication ;
  • Des cadres comme le FSF rendus publics et appliqués systématiquement ;
  • Des engagements internationaux contraignants, à l’image d’un “traité de non-prolifération de l’IA”.

Un tournant pour l’industrie ?

La polémique autour de Gemini 2.5 Pro est un test décisif pour l’ensemble du secteur. Elle montre que les utilisateurs, les chercheurs et les gouvernements commencent à demander des comptes aux grandes entreprises technologiques. Et à juste titre : l’IA n’est pas une innovation comme les autres. Elle touche à la parole, à la pensée, à la société.

Si des géants comme Google veulent conserver leur légitimité dans ce domaine, ils devront faire de la sécurité et de la transparence des piliers – et non des options.


Conclusion : vers une IA plus responsable

L’affaire Gemini 2.5 Pro est un signal d’alarme. À mesure que les modèles d’intelligence artificielle deviennent plus puissants, la rigueur éthique et la transparence doivent s’intensifier. Google, comme les autres acteurs du secteur, ne peut plus se contenter de belles promesses. Il faut des actes, des preuves, et une gouvernance robuste.

Chez Tamento, nous accompagnons les entreprises dans la compréhension des enjeux de l’IA et leur intégration responsable dans les stratégies de communication, marketing et transformation numérique. Envie d’en parler avec nous ? Contactez notre équipe pour construire une stratégie digitale éclairée et responsable.

Sources :

Create your account