Google, Microsoft et xAI ont accepté de laisser un centre du Département du Commerce évaluer de nouveaux modèles d’IA avant leur diffusion publique, élargissant les tests de sécurité fédéraux.
WASHINGTON — Le département du Commerce des États-Unis testera la sécurité de nouveaux modèles d’intelligence artificielle de Google, Microsoft et xAI avant leur diffusion ou leur déploiement, dans le cadre d’accords volontaires annoncés mardi par son Center for AI Standards and Innovation (CAISI).
Ces accords donnent aux scientifiques fédéraux un accès à des systèmes d’IA de pointe de trois grands développeurs, au moment où Washington cherche à évaluer les risques de sécurité posés par des modèles de plus en plus performants, sans imposer de règles obligatoires étendues au secteur.
La CAISI a indiqué que le travail inclura des tests, de la recherche collaborative et l’élaboration de bonnes pratiques pour les systèmes d’IA commerciaux, avec des évaluations centrées sur les capacités et la sécurité. Le directeur du centre, Chris Fall, a déclaré que ces accords élargiraient l’action du gouvernement « dans l’intérêt public à un moment critique ».
Les accords prolongent des dispositifs antérieurs conclus sous l’administration Biden avec OpenAI et Anthropic. Le centre de tests du Département du Commerce, alors connu sous le nom de US Artificial Intelligence Safety Institute, a servi de pôle fédéral pour les évaluations d’IA et les normes de sécurité volontaires.
La CAISI a indiqué mardi avoir mené plus de 40 évaluations antérieures, dont des tests de « modèles de pointe qui ne sont pas encore publiés ». Elle n’a pas identifié ces modèles. L’agence a précisé que les développeurs fournissent souvent des versions de modèles dont certains garde-fous ont été retirés afin que les évaluateurs puissent sonder les risques pour la sécurité nationale.
Microsoft a déclaré qu’elle travaillerait avec des scientifiques du gouvernement américain pour tester des systèmes d’IA « d’une manière qui explore les comportements inattendus » et pour élaborer des jeux de données et des processus de travail partagés pour l’évaluation des modèles. L’entreprise a également indiqué avoir signé un accord similaire avec l’AI Security Institute du Royaume-Uni. Google a refusé de commenter auprès d’Al Jazeera, et xAI n’a pas répondu immédiatement à sa demande de commentaire.
Cette annonce intervient sur fond d’inquiétudes croissantes à Washington quant à l’usage abusif possible de systèmes d’IA avancés dans des cyberattaques ou des environnements militaires. L’attention récente s’est en partie portée sur le modèle Mythos d’Anthropic et sur la question de savoir si des systèmes puissants pourraient renforcer considérablement les capacités des pirates informatiques avant que les gouvernements et les entreprises n’en comprennent pleinement les risques.
Ces accords de test font également suite à un accord du Pentagone avec sept entreprises technologiques — dont Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection et SpaceX — pour utiliser des systèmes d’IA sur des réseaux informatiques classifiés. Le département de la Défense a indiqué que cet arrangement vise à « renforcer la prise de décision des combattants dans des environnements opérationnels complexes ».
Cette initiative marque une expansion notable de l’accès fédéral aux modèles des entreprises sous le président Donald Trump, dont l’administration a par ailleurs mis l’accent sur la réduction des obstacles réglementaires au développement de l’IA. L’an dernier, Trump a signé des décrets présidentiels posant les bases d’un AI Action Plan qui, a-t-il déclaré, devait « supprimer les lourdeurs administratives et la réglementation contraignante » et aider les États-Unis à l’emporter grâce à l’avancement et au contrôle de l’IA.
L’annonce publique n’a pas nommé les modèles spécifiques de Google, Microsoft ou xAI qui seront examinés, ni précisé dans quelle mesure les conclusions de la CAISI seront rendues publiques. Pour l’heure, ces accords placent un plus grand nombre des systèmes d’IA commerciaux les plus puissants dans un processus fédéral de test avant qu’ils ne soient plus largement utilisés.
Commentaires (0)