Le 30 avril, le Financial Times a rapporté que Google avait déclaré à ses employés que l'entreprise était « fière » de coopérer avec l'armée américaine et qu'elle continuerait de le faire. Actuellement, le géant de la technologie fait face aux réticences de centaines d’employés.Les employés ont exprimé leur mécontentement face à l'accord de l'entreprise d'utiliser l'IA pour des opérations militaires classifiées.

Kent Walker, président des affaires mondiales de la société mère de Google, Alphabet, a écrit mardi dans une note adressée aux employés : "Nous sommes fiers de travailler avec le secteur de la défense depuis les débuts de Google et avons toujours pensé qu'il était essentiel de soutenir la sécurité nationale de manière réfléchie et responsable."
"Maintenir l'engagement avec les gouvernements, y compris la coopération dans le domaine de la sécurité nationale, aidera les démocraties à bénéficier d'une technologie responsable", a déclaré Walker.
Google a signé lundi un accord avec le département américain de la Défense pour permettre l'utilisation de sa technologie d'IA dans des opérations classifiées.L'accord s'étend à un contrat existant de 200 millions de dollars visant à fournir des outils d'IA au ministère de la Défense. Cette décision intervient au milieu d’un conflit entre Anthropic et le Pentagone. Le PDG d'Anthropic, Dario Amodei, a déclaré qu'il refuserait de signer un accord avec le ministère de la Défense à moins que le gouvernement ne garantisse que les outils d'Anthropic ne seraient pas utilisés pour une surveillance nationale à grande échelle et des systèmes d'armes létaux autonomes.
Walker a reconnu dans la note que les outils d'IA de Google "ne sont pas destinés à être utilisés dans le cadre d'une surveillance nationale à grande échelle ou d'armes autonomes en l'absence d'une surveillance humaine appropriée". Cependant, dit-il,Google soutiendra l'application de l'IA dans le domaine militaire, "ce qui est cohérent avec les pratiques d'autres grandes sociétés d'IA".OpenAI et xAI d’Elon Musk ont également conclu un accord similaire avec Google.
Le jour où Google a signé l'accord, plus de 560 employés ont envoyé une lettre ouverte au PDG Sundar Pichai, l'exhortant à se retirer des négociations, citant des inquiétudes quant au fait que la technologie de l'entreprise pourrait être utilisée de « manières inhumaines ou extrêmement dangereuses ».
Walker a défendu cette décision, affirmant que Google avait travaillé sur des projets classifiés pour des agences gouvernementales dans le passé, notamment dans des domaines tels que la cybersécurité, la traduction pour des événements diplomatiques et les soins de santé des anciens combattants.
Il a également souligné que les gouvernements « ont déjà accès à la technologie de l’IA sur une base open source (y compris à des fins de sécurité nationale) et ont également largement utilisé des logiciels open source dans leurs propres systèmes ».
Après la signature de l'accord, les employés opposés à l'accord se sont réorganisés pour exiger une plus grande transparence et une plus grande surveillance des produits d'IA de Google qui seront utilisés dans l'armée, selon deux personnes proches du dossier.
La réponse de Google aux récentes protestations des employés a considérablement changé par rapport au passé.En 2018, plusieurs employés ont démissionné et des milliers de personnes ont signé une pétition s'opposant au projet Maven, un projet visant à utiliser l'IA pour améliorer les frappes de drones. À l’époque, Google n’avait pas renouvelé le contrat et avait promis de ne pas utiliser l’IA à des fins d’armement ou de surveillance.
Google a déclaré : "Nous sommes fiers de faire partie d'une large alliance... pour fournir des services et des infrastructures d'IA pour soutenir la sécurité nationale." La société a déclaré qu'elle s'engageait à parvenir à un consensus selon lequel "l'IA ne devrait pas être utilisée pour la surveillance de masse nationale ou pour des systèmes d'armes autonomes sans une surveillance humaine appropriée".