Désinformation, arnaques : l’IA de Google pour identifier les publicités frauduleuses

Dans un environnement informationnel de plus en plus contaminé par des actions de manipulation, l’engagement technologique du secteur privé devient une composante centrale des stratégies de protection numérique. Le dernier rapport de Google met en lumière une capacité accrue à neutraliser les contenus frauduleux avant leur diffusion, avec une doctrine fondée sur l’anticipation, l’alerte précoce et le traitement automatisé.

Publié le
Lecture : 4 min
desinformation-arnaques-lia-de-google-les-publicites
desinformation-arnaques-lia-de-google-les-publicites | Armees.com

Dans un environnement informationnel de plus en plus contaminé par des actions de manipulation, l’engagement technologique du secteur privé devient une composante centrale des stratégies de protection numérique. Le dernier rapport de Google met en lumière une capacité accrue à neutraliser les contenus frauduleux avant leur diffusion, avec une doctrine fondée sur l’anticipation, l’alerte précoce et le traitement automatisé.

Le 16 avril 2025, Google a rendu public son rapport annuel sur la sécurité des contenus publicitaires diffusés via ses plateformes. Le document dresse un état des lieux chiffré des actions entreprises en 2024 contre la diffusion d’annonces frauduleuses, illégales ou trompeuses. L’accent est mis sur l’emploi renforcé de l’intelligence artificielle comme outil de supervision automatique, dans un contexte où les menaces hybrides, notamment celles issues des deepfakes ou des réseaux de désinformation, se professionnalisent. L’analyse du rapport s’inscrit dans une perspective de souveraineté informationnelle, à l’intersection des enjeux technologiques, économiques et stratégiques.

Une approche de cybersécurité appliquée au domaine publicitaire

Google a présenté le 16 avril 2025 son rapport de sécurité publicitaire pour l’année 2024. L’entreprise y expose les efforts engagés pour empêcher la diffusion de contenus malveillants dans son réseau publicitaire mondial. Plus de 5,1 milliards d’annonces ont été bloquées et 9,1 milliards restreintes. Ce volume s’accompagne de 39,2 millions de suspensions de comptes annonceurs.

Ces chiffres illustrent une réponse à l’échelle, construite sur un principe d’interdiction préventive. L’entreprise déploie une stratégie assimilable à une posture de cybersécurité classique : filtrage en amont, reconnaissance de schémas frauduleux, et intervention automatisée. Le cœur du dispositif repose sur des modèles de traitement informatique renforcés, plus de 50 modifications techniques ont été apportées aux algorithmes d’analyse. Ceux-ci permettent notamment de détecter les anomalies dès la création d’un compte annonceur.

Cette démarche vise à éviter que des contenus illicites ne soient diffusés, en rendant le système hostile à leur insertion. C’est une logique de « dissuasion algorithmique », combinée à une capacité de neutralisation rapide. L’ensemble est couplé à une analyse comportementale des utilisateurs suspects, fondée sur des signaux techniques similaires à ceux utilisés dans les systèmes d’alerte en cybersécurité.

Des menaces à caractère hybride : du deepfake à la cryptopersuasion

Les formes de menace identifiées dans le rapport renvoient à des usages de plus en plus élaborés des technologies numériques à des fins d’escroquerie, d’ingénierie sociale ou d’influence. L’entreprise alerte notamment sur la prolifération de publicités utilisant des techniques de deepfake, associées à des offres de placements financiers en cryptoactifs ou à des arnaques basées sur l’identité simulée de figures publiques.

Ce type de menace repose sur des procédés mimétiques destinés à contourner la vigilance de l’utilisateur. Il s’inscrit dans une logique hybride : ni purement économique, ni uniquement informationnelle, mais souvent les deux. Ces opérations, bien que relevant du champ publicitaire, participent à la déstabilisation de la confiance dans les systèmes d’information.

Pour répondre à cette complexité, Google a mis sur pied une cellule d’une centaine d’experts chargée de surveiller, identifier et corriger les tentatives d’intrusion frauduleuse. Une révision des protocoles internes, notamment la politique de fausse déclaration, a été entreprise pour adapter le périmètre de neutralisation aux nouvelles tactiques adverses. À ce jour, 700 000 comptes ont été suspendus dans le cadre de ces opérations ciblées.

Protection du processus électoral et renforcement du contrôle des communications politiques

L’année 2024 a été marquée par un cycle électoral d’ampleur mondiale, avec près de la moitié de la population mondiale concernée. Dans ce contexte, les plateformes numériques ont été confrontées à des risques d’exploitation de leurs canaux à des fins de désinformation ou de manipulation d’opinion. Google a renforcé ses exigences de conformité pour les annonces politiques : identification vérifiée des auteurs, indication du financement, mention obligatoire du recours à des technologies IA.

L’entreprise affirme avoir supprimé plus de 10 millions de contenus publicitaires électoraux jugés non conformes. En parallèle, près de 9 000 annonceurs ont passé les vérifications requises. Ce volet du dispositif vise à garantir la traçabilité des messages d’influence pendant les périodes sensibles, tout en maintenant une capacité de diffusion conforme aux règles des États concernés.

Il s’agit là d’un volet stratégique essentiel : dans le contexte d’un environnement informationnel globalisé, les acteurs non-étatiques peuvent exploiter les failles du système publicitaire pour diffuser des messages politiques sous couvert d’annonces commerciales. Ce constat rejoint les préoccupations exprimées dans de nombreux cercles de défense et de renseignement autour de la militarisation de l’espace numérique.

Vers un réseau d’alerte et de partage des menaces

Outre la mise en œuvre de ses propres mesures, Google s’est engagé dans une logique de coordination sectorielle. L’entreprise a rejoint plusieurs initiatives collectives, dont l’Alliance globale anti-scam et le Global Scam Signals Exchange. Ces structures ont pour fonction de centraliser et diffuser les signaux faibles identifiés par les plateformes, afin d’accélérer la réponse collective.

Cette dynamique de partage évoque les modèles de fusion center dans le domaine de la défense : mutualisation de l’analyse, standardisation des critères de menace, et circulation rapide de l’information entre entités privées et publiques. Elle témoigne d’un glissement progressif du champ publicitaire vers un périmètre de sécurité informationnelle élargie.

Un dispositif privé aux effets systémiques

Le rapport 2024 de Google illustre une inflexion durable dans la gouvernance des flux numériques : les grandes plateformes deviennent progressivement des opérateurs techniques de régulation et de filtrage, aux effets systémiques. Leur rôle dépasse désormais celui d’intermédiaires commerciaux pour participer à la stabilisation de l’espace informationnel.

Pour les armées et institutions en charge de la sécurité nationale, ces évolutions confirment la nécessité d’intégrer les plateformes dans les schémas de veille et d’analyse. Si l’entreprise agit selon ses propres logiques économiques, son action produit des effets concrets sur l’exposition des populations aux menaces numériques. Le suivi, l’anticipation et la régulation des actions publicitaires peuvent ainsi contribuer, indirectement, à la résilience des démocraties face aux opérations d’influence et aux stratégies de désorganisation ciblée.

Laisser un commentaire

Share to...