Le gouvernement britannique pousse des entreprises telles qu'OpenAI, Anthropic et Google à expliquer le fonctionnement interne de leurs grands modèles linguistiques (LLM). Bien que le code de certains modèles soit public, des modèles tels que GPT-3.5 et GPT-4 ne le sont pas, et OpenAI est très réticent à partager de nombreux détails.
Le Royaume-Uni se prépare à accueillir un nouveau sommet mondial sur l'intelligence artificielle, qui réunira des gouvernements, des entreprises et des chercheurs pour examiner les risques posés par l'intelligence artificielle et discuter des moyens de les réduire.
L’une des raisons pour lesquelles les entreprises hésitent à partager leurs données internes est qu’un tel comportement pourrait révéler des informations confidentielles sur leurs produits. Si les acteurs malveillants connaissent davantage d’informations privilégiées, cela peut également rendre les modèles d’intelligence artificielle vulnérables aux cyberattaques.
Selon le Financial Times, l’un des éléments que le gouvernement souhaite vérifier concerne les poids du modèle, qui définissent la force des connexions entre les neurones des différentes couches du modèle. Actuellement, les sociétés d’IA ne sont pas tenues de partager ces informations, mais des appels ont été lancés pour une plus grande transparence à cet égard.
Le Royaume-Uni tiendra son premier sommet à Bletchley Park en novembre. Bletchley Park occupe une place importante dans l’histoire de l’informatique puisque c’est ici que les messages nazis étaient décryptés. Le test de Turing lié à l'intelligence artificielle porte le nom d'Alan Turing, qui y a également déchiffré des codes.
Le Financial Times a noté que DeepMind, OpenAI et Anthropic de Google avaient tous convenu en juin d'ouvrir leurs modèles au gouvernement britannique à des fins de recherche et de sécurité. Malheureusement, les parties n’étaient pas d’accord à ce moment-là sur la portée et les détails techniques de l’ouverture. Aujourd’hui, le niveau d’ouverture exigé par le gouvernement est assez élevé.
En fin de compte, pour que le sommet soit un succès, les participants doivent pleinement comprendre le fonctionnement des modèles afin de mieux comprendre leurs dangers. Qu’ils aient un accès adéquat aux modèles est une autre question.