Meta AI, nouveau risque de cybersécurité : conversations sensibles rendues publiques

Le 14 juin 2025, Justin Moore révélait que des conversations générées via l’application Meta AI étaient rendues accessibles à l’ensemble des utilisateurs.

Publié le
Lecture : 2 min
meta-ai-donnees-fuite-cybersecurite-alerte-zuckerberg
meta-ai-donnees-fuite-cybersecurite-alerte-zuckerberg | Armees.com


Déployée dans plusieurs services numériques, l’intelligence artificielle de Meta soulève d’importantes préoccupations en matière de cybersécurité. Des informations confidentielles, échangées via des interfaces pourtant perçues comme privées, se retrouvent accessibles publiquement. Une vulnérabilité critique.

Meta AI et cybersécurité : une faille structurelle aux conséquences critiques

Le 12 juin 2025, Justin Moore révélait que des conversations générées via l’application Meta AI étaient rendues accessibles à l’ensemble des utilisateurs. Cette faille de conception, qui concerne l’outil intégré à Facebook, Instagram et WhatsApp, touche également l’application autonome disponible sur iOS et Android.

L’experte en intelligence artificielle, dans un fil de publications sur le réseau X, a mis en lumière l’exposition publique de conversations contenant des informations médicales, judiciaires, ou personnelles. Elle signale également que certains échanges portaient sur des adresses postales, des contenus liés à des identités réelles ou à des situations potentiellement sujettes à des obligations de confidentialité.

Ces données étaient accessibles via un flux nommé Discover, proposé par défaut dans l’application Meta AI, sans filtrage préalable ni alerte de confidentialité explicite.

Des échanges professionnels exposés en clair : alerte sur Meta AI

Parmi les extraits diffusés, certains contenus incluent des informations directement issues du contexte professionnel des utilisateurs. Toujours selon l’experte, plusieurs publications partagées via le flux Discover dévoilent des éléments tels que des coordonnées, des noms, des données personnelles ou encore de santé, et même des informations liées à des affaires judiciaires en cours.

Même si la plupart de ces contenus proviennent d’utilisateurs américains, la question de leur reproductibilité dans un contexte européen ou français demeure posée. Surtout depuis que Meta AI a été déployée sur les applications très populaires que sont WhatsApp ou encore Instagram.

Des données confidentielles dans la nature ?

Pour les environnements professionnels sensibles — entreprises stratégiques, opérateurs d’importance vitale (OIV), institutions publiques, armées —, la présence de Meta AI constitue un risque de fuite non intentionnelle mais potentiellement grave. L’interfaçage de cette IA dans des outils du quotidien comme WhatsApp, souvent tolérés en BYOD (Bring Your Own Device), ouvre une faille structurelle dans la gestion des communications internes.

Les risques identifiés sont multiples :

  • Exposition d’informations classifiées par erreur ;
  • Divulgation involontaire de données RH, santé ou clientèles protégées ;
  • Capture d’échanges confidentiels par un service tiers non audité ni chiffré de bout en bout pour l’IA.

L’absence d’un bouton de désactivation systématique dans les paramètres des applications Facebook ou Instagram accentue la confusion des utilisateurs, y compris professionnels, sur le degré réel de confidentialité des échanges avec Meta AI.

Quelles solutions pour se protéger ?

En l’absence d’encadrement technique clair, plusieurs recommandations peuvent être formulées aux responsables cybersécurité des entités sensibles :

  • Interdiction stricte des interactions avec Meta AI depuis des terminaux professionnels ;
  • Blocage des applications associées (WhatsApp, Facebook, Instagram) via MDM ou pare-feu réseau dans les environnements critiques ;
  • Formation des collaborateurs à l’usage sécurisé des IA conversationnelles et à l’identification des interfaces non privées ;
  • Surveillance des flux sortants DNS/HTTP vers les serveurs Meta depuis les réseaux internes.

Meta AI soulève des enjeux majeurs de sécurité de l’information, dans un contexte où les frontières entre sphère privée et professionnelle sont de plus en plus poreuses. L’absence de contrôle explicite, conjuguée à la viralité des interfaces grand public, transforme un outil ludique en menace concrète pour la souveraineté numérique des organisations.

Laisser un commentaire

Share to...