Google aurait aidé Israël à Gaza avec son IA, malgré ses promesses

Déposée début février 2026 auprès de la Securities and Exchange Commission américaine, une plainte confidentielle relance un débat ancien mais brûlant. Elle accuse Google d’avoir apporté une assistance technique en intelligence artificielle à un prestataire lié à l’armée israélienne, en contradiction avec ses règles internes.

Publié le
Lecture : 3 min
gaza-frappes-israeliennes-hamas-guerre
Google aurait aidé Israël à Gaza avec son IA, malgré ses promesses © Armees.com

L’accusation vise Google et frappe au cœur de sa promesse éthique. Selon un lanceur d’alerte, le géant technologique aurait aidé un sous-traitant de l’armée israélienne à exploiter des outils d’intelligence artificielle pendant la guerre à Gaza. Derrière cette révélation, une question centrale s’impose : jusqu’où Google peut-il aller sans trahir ses propres principes, alors que l’usage militaire de l’IA soulève des enjeux moraux majeurs et que le groupe avait promis de ne pas mêler intelligence artificielle et armement ?

Google, l’intelligence artificielle et l’armée israélienne : ce que révèle le lanceur d’alerte

Selon les éléments rapportés par le Washington Post début février 2026, le lanceur d’alerte, ancien employé de Google, affirme que l’entreprise a aidé un sous-traitant travaillant pour l’armée israélienne à analyser des vidéos de drones. Cette assistance aurait reposé sur des outils d’intelligence artificielle avancés, notamment des technologies de traitement automatisé d’images. Or, pourtant, Google affirme publiquement limiter l’usage de son IA dans des contextes militaires sensibles. Dès lors, cette révélation interroge directement la cohérence entre discours et pratiques.

Toujours selon le Washington Post, la plainte évoque une violation explicite des principes d’IA de Google, qui excluent l’usage de ses technologies pour la surveillance liée aux armes ou pour des actions contraires au droit international humanitaire. Le plaignant cite des documents internes décrivant des demandes opérationnelles liées à l’armée israélienne, transmises par un contractant. « Google a enfreint ses propres principes d’IA en aidant un sous-traitant de l’armée israélienne à analyser des vidéos de drones », indique la plainte.

Pourquoi cette accusation pose un problème éthique majeur pour Google

Pour Google, cette affaire va bien au-delà d’un simple différend contractuel. En effet, depuis 2018, l’entreprise met en avant des règles strictes encadrant l’usage de son intelligence artificielle. Ces principes, largement médiatisés, servent de référence dans l’industrie technologique. Or, selon les documents cités par le Washington Post, l’assistance fournie à un prestataire de l’armée israélienne contredirait directement ces engagements. La crédibilité de Google sur le terrain de l’éthique de l’IA se retrouve fragilisée.

Google nie toute violation. L’entreprise affirme que le soutien apporté était « limité à un support standard » et ne concernait pas un usage militaire direct. « Google nie toute violation de ses politiques, affirmant que toute aide a été limitée à un support standard », a déclaré un porte-parole, selon le Washington Post. Toutefois, cette défense peine à convaincre certains observateurs, car elle ne répond pas précisément à la nature opérationnelle des demandes liées à l’armée israélienne et à l’usage concret de l’intelligence artificielle. Des documents internes cités par Yahoo Finance indiquent en effet que des plateformes d’intelligence artificielle de Google ont été sollicitées pour des analyses vidéo dans un contexte opérationnel.

Les conséquences possibles pour Google et le débat mondial sur l’IA militaire

Si l’enquête de la SEC confirmait les accusations, Google pourrait faire face à des conséquences juridiques et réputationnelles importantes. D’une part, l’entreprise s’exposerait à des sanctions réglementaires pour manquement à ses obligations de transparence envers les investisseurs. D’autre part, son image d’acteur responsable de l’intelligence artificielle serait durablement affectée. Selon les analyses relayées par le Washington Post, cette affaire pourrait aussi renforcer la pression sur l’ensemble du secteur technologique, déjà critiqué pour son rôle dans la militarisation de l’IA.

Cette accusation relance un débat global sur l’éthique de l’intelligence artificielle en contexte militaire. En Israël comme ailleurs, l’armée investit massivement dans l’automatisation et l’analyse de données. Or, lorsque des entreprises privées comme Google fournissent des outils clés, la frontière entre innovation civile et usage militaire devient floue. Cette affaire pourrait servir de précédent et pousser les entreprises technologiques à clarifier, voire restreindre, leurs relations avec les acteurs militaires utilisant l’IA.

Laisser un commentaire

Share to...