Google et le pentagone : une alliance troublante pour l'ia militaire
Une révolte silencieuse secoue Google. Plus de 600 employés, de tous horizons, ont levé leurs voix contre un accord controversé avec le Département de la Défense américain. Le cœur de la dispute ? L'utilisation de Gemini, le chatbot de l'entreprise, dans des opérations militaires secrètes.
Le point de rupture : un usage de l'ia au-delà des limites
Cette décision, selon les lanceurs d'alerte, ouvre la porte à une surveillance sans contrôle des activités militaires. Les employés craignent que les outils d'intelligence artificielle ne soient utilisés pour le pistage de personnes, voire la désignation de cibles, sans aucune possibilité de recours. La fracture avec Google DeepMind, responsable de l'IA, est totale et les inquiétudes grandissent quant au secret absolu qui entoure ces opérations.
Rishi Sunak a déjà alerté sur les conséquences de cette course à l'IA : « L'intelligence artificielle provoque déjà une diminution des emplois pour les jeunes. » Il est donc compréhensible que ces techniciens, qui ont contribué à la création de modèles de langage révolutionnaires, se sentent trahis.

Le pentagone, un client indéboulable
Le département américain, loin de se laisser intimider, insiste sur un « usage légal » de Gemini, une formulation suffisamment vague pour laisser place à toute interprétation. Le Pentagone tente de diviser les entreprises, en proposant l’utilisation de Gemini à Anthropic, qui a rejeté cette proposition. Cette stratégie, selon les employés de Google et d'OpenAI, est une manipulation visant à saper la solidarité.

Une opposition croissante
Cette situation ne fait pas fronter les seuls employés de Google. Une coalition de chercheurs de OpenAI a publié un communiqué fermement opposé à cette militarisation de l'IA, exhortant leurs dirigeants à maintenir leur ligne de résistance. La peur d'une utilisation abusive de ces technologies est partagée, rappelant les inquiétudes exprimées lors de la rupture de silence de certains employés d’OpenAI.
Jack Buser, directeur global de jeux vidéo chez Google Cloud, plaide pour une approche prudente : « Adoptons l'IA comme si c'était le costume d'Iron Man. Elle est là, elle est accessible. » Mais cette vision optimiste contraste fortement avec les préoccupations des équipes techniques, qui pointent du doigt le risque de dérives dangereuses.

La guerre des algorithmes
La bataille est loin d'être terminée. Le Pentagone a déjà dévoilé GenAI.mil, utilisant Gemini comme plateforme d'IA pour renforcer la puissance militaire américaine, tandis que Google se contente de déclarer que l'outil ne sera utilisé que pour des tâches non classifiées. Cette situation est tendue, et les employés se sentent abandonnés, après avoir contribué à la création d'outils qui pourraient, à terme, compromettre les libertés civiles.
Un commentaire poignant de l'un des lanceurs d'alerte : « Si les dirigeants prennent au sérieux la prévention des dommages, ils doivent rejeter, pour l'instant, les missions classifiées. » La complexité de la question est telle que la voie vers une solution responsable demeure encore floue. La situation nécessite une vigilance accrue et un débat public éclairé.
