En juillet de cette année, des représentants de sept géants de la technologie : Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont rencontré l'administration Biden-Harris pour discuter du développement responsable de l'intelligence artificielle. Aujourd'hui, la Maison Blanche a annoncé que huit autres entreprises technologiques avaient volontairement participé aux efforts visant à réduire les risques liés à l'IA.
Adobe, IBM, NVIDIA, Palantir, Stability, Salesforce, Scale et Cohere rejoignent les signataires existants des principes proposés par le président Biden. Les engagements exigent que les entreprises signataires prennent des mesures telles que le filigrane ou l'étiquetage des médias générés par l'IA pour faire savoir aux gens qu'ils n'ont pas été créés par des humains.
Les entreprises d’IA s’engagent également à promouvoir l’équité, la non-discrimination, la transparence, la confidentialité et la sécurité lorsqu’elles travaillent avec l’IA.
Le chef de cabinet de la Maison Blanche, Jeff Zients, a félicité davantage d'entreprises pour s'être jointes à cet effort et a déclaré que Biden avait fait de l'exploitation des avantages de l'intelligence artificielle tout en gérant ses risques une priorité absolue.
Aujourd’hui, ces huit grandes sociétés d’IA promettent :
Les sociétés s'engagent à effectuer des tests de sécurité internes et externes des systèmes d'IA avant leur publication.
Les entreprises se sont engagées à partager des informations sur la gestion des risques liés à l’IA au sein de l’industrie ainsi qu’avec le gouvernement, la société civile et le monde universitaire.
Les sociétés se sont engagées à investir dans la cybersécurité et dans les mesures de protection contre les menaces internes afin de protéger les pondérations des modèles propriétaires et inédits.
Les entreprises s’engagent à permettre aux tiers de découvrir et de signaler plus facilement les vulnérabilités de leurs systèmes d’intelligence artificielle.
Les deux sociétés se sont engagées à développer des mécanismes techniques puissants pour garantir que les utilisateurs sachent que le contenu est généré par l'intelligence artificielle, comme les systèmes de filigrane.
Les entreprises se sont engagées à rendre compte publiquement des capacités, des limites et des domaines d’utilisation appropriée et inappropriée de leurs systèmes d’IA.
Les entreprises se sont engagées à donner la priorité à la recherche sur les risques sociaux que les systèmes d’IA peuvent poser, notamment en évitant les préjugés et la discrimination préjudiciables et en protégeant la vie privée.
Ces entreprises promettent de développer et de déployer des systèmes avancés d’intelligence artificielle pour aider à résoudre les plus grands défis de société.
Cependant, de nombreuses personnes s’inquiètent de la montée en puissance des services d’intelligence artificielle. Le caractère volontaire de ces engagements est considéré comme une solution temporaire.
Fin août, le président et vice-président exécutif de Microsoft, Brad Smith, a exprimé son soutien à cette idée, appelant à l'élaboration d'un « plan de réglementation » pour garantir que l'intelligence artificielle reste sous contrôle humain. De plus, la société a publié un plan expliquant comment, selon elle, l’intelligence artificielle devrait être gouvernée.