Romain Leclaire

Quand l'éthique capitule face aux milliards - La dangereuse dérive militaire de Google

arm-IA

Il fut un temps, de plus en plus lointain, où la devise de Google promettait naïvement de ne pas faire le mal. Aujourd'hui, cette façade moralisatrice s'effondre lourdement sous le poids des contrats militaires vertigineux et des ambitions guerrières du Pentagone. Dans un élan de résistance désespérée, plus de 580 employés de la firme de Mountain View, incluant une vingtaine de directeurs, de vice-présidents et d'éminents chercheurs de la division DeepMind, ont récemment adressé une lettre poignante à leur PDG Sundar Pichai.

Leur exigence est aussi limpide que vitale, refuser, de manière catégorique, de développer et de fournir des intelligences artificielles pour des projets militaires classifiés. Ce soulèvement interne dévoile une réalité perturbante que la direction tente d'étouffer. Google semble désormais prêt à sacrifier ses ultimes garde-fous éthiques sur l'autel de la suprématie technico-militaire, plongeant l'humanité dans une période terrifiante où des algorithmes surpuissants pourraient orchestrer la mort et la surveillance de masse sans l'ombre d'une supervision civile.

Au cœur de cette fronde légitime se trouve la question fondamentale de la transparence, ou plutôt de son oblitération totale par le secret défense. Les signataires dénoncent les négociations actuelles visant à intégrer les outils d'IA du géant américain, notamment l'infrastructure Gemini, sur des réseaux classifiés et strictement isolés d'Internet (dits "air-gapped"). Sur de telles infrastructures opaques, Google se mutile volontairement de toute capacité d'audit. Il devient aveugle aux requêtes soumises par les militaires, aux décisions prises par ses modèles et aux conséquences directes qui en découlent sur le terrain.

Le problème vient du péril inhérent à l'IA agentique. Conférer un tel niveau d'autonomie et d'indépendance à un système logiciel tout en renonçant à tout droit de regard revient à armer une bombe à retardement en espérant qu'elle ne blesse personne. L'unique garantie offerte par la hiérarchie militaire américaine se résume à un dérisoire et infantilisant « faites-nous confiance ». Cette promesse vide de sens est censée agir comme l'unique bouclier contre la prolifération des armes létales autonomes, un pari d'une irresponsabilité totale.

Pour saisir l'ampleur de cette trahison corporatiste, il est impératif de remonter à l'année 2018 et au scandale du projet Maven. À l'époque, la fronde de 4 000 employés et une vague de démissions fracassantes avaient réussi à faire plier le géant du web. Google s'était retirée de ce programme du Pentagone qui utilisait l'IA pour analyser les flux vidéo des drones meurtriers et avait même été contraint de rédiger des principes éthiques bannissant la technologie à des fins d'armement ou de surveillance abusive.

Mais l'histoire nous montre que cette victoire humaine n'était qu'un simple contretemps bien calculé. Tandis que l'entreprise Palantir récupérait avec avidité les restes de ce projet pour bâtir un empire militaro-industriel pesant aujourd'hui 13 milliards de dollars, Google rebâtissait sournoisement, dans l'ombre, chaque pont que ses employés avaient brûlé. La capitulation morale s'est officialisée en toute discrétion en février 2025. L'entreprise a purement et simplement effacé de ses principes fondateurs les clauses interdisant l'usage de son IA pour faciliter les blessures humaines ou violer les normes internationales de surveillance. Demis Hassabis, PDG de Google DeepMind, a eu l'audace de justifier cette régression par l'impératif de la compétition mondiale, balayant d'un revers de main cynique les condamnations scandalisées d'Amnesty International et de Human Rights Watch.

Aujourd'hui, la compromission de l'entreprise a franchi le point de non-retour pour atteindre une échelle industrielle terrifiante. Les pions sont déjà en place. En décembre 2025, le département américain de la défense a fièrement inauguré GenAI.mil, une plateforme de guerre propulsée par le chatbot Gemini. Depuis mars dernier, Google déploie activement ses agents IA auprès de trois millions de personnels de la défense à un niveau non classifié, banalisant l'usage d'outils redoutables pour résumer des stratégies de guerre ou structurer des budgets indécents.

Tout ceci n'est qu'une rampe de lancement pour infiltrer le "Top Secret". L'appât du gain explique aisément cette voracité dénuée de scrupules. Le Pentagone a réclamé une enveloppe délirante de 54,6 milliards de dollars pour le seul groupe de guerre autonome pour l'année fiscale 2027, une explosion budgétaire de 24 000% par rapport à l'année d'avant. Dans un monde où les forces armées testent déjà des soldats robots humanoïdes et intègrent l'IA comme le système nerveux central de l'armée américaine, la direction de Google salive devant la manne financière, balayant toute considération pour les vies humaines qui se trouvent au bout de la chaîne de calcul.

Le contexte concurrentiel actuel révèle par ailleurs le véritable visage d'une administration qui ne tolère aucune dissidence éthique et d'un Google prêt à toutes les bassesses pour s'y conformer. Le récent placement sur liste noire de l'entreprise Anthropic par le gouvernement américain, violemment sanctionnée pour avoir refusé de lever ses lignes rouges sur les armes autonomes, a envoyé un avertissement mafieux à toute la Silicon Valley.

"L'obéissance ou la mort commerciale."

Alors qu'OpenAI s'est empressée de signer un accord en se cachant derrière des garde-fous théoriques intenables sur des réseaux fermés, Google négocie actuellement un blanc-seing scandaleux pour "tous les usages légaux", une formulation juridique vaporeuse qui ouvre la porte aux pires dérives. Le grand écart entre la conscience de l'ingénierie et le cynisme de la direction n'a jamais été aussi béant.

Pourtant la surveillance de masse viole ouvertement le quatrième Amendement américain et se heurtent au mur de l'avidité. En 2018, la solidarité de quelques milliers de travailleurs suffisait à dicter la conscience d'une multinationale. En ce printemps 2026, face à un marché militarisé de plusieurs dizaines de milliards de dollars, Sundar Pichai a pris sa décision. Google ne sera pas l'exception courageuse qui refuse de transformer son génie logiciel en arme de destruction massive. Il a minutieusement préparé le terrain depuis trois ans pour devenir le rouage obéissant, aveugle et infiniment rentable de la guerre de demain.