Supervision de l’IA

Les États-Unis testeront les modèles de Google, Microsoft et xAI avant leur sortie

Des accords volontaires du Département du Commerce donnent à la CAISI un accès anticipé aux systèmes de pointe, alors que Washington évalue les risques de sécurité liés à des IA plus puissantes

Langue source : English Traduit par IA en French
0
Les États-Unis testeront les modèles de Google, Microsoft et xAI avant leur sortie
Emplacement
Washington
Washington, District of Columbia, United States
Google, Microsoft et xAI ont accepté de laisser un centre du Département du Commerce évaluer de nouveaux modèles d’IA avant leur diffusion publique, élargissant les tests de sécurité fédéraux.
Sécurité de l'IA Intelligence artificielle Google Microsoft xAI

Google, Microsoft et xAI ont accepté de laisser un centre du Département du Commerce évaluer de nouveaux modèles d’IA avant leur diffusion publique, élargissant les tests de sécurité fédéraux.

WASHINGTON — Le département du Commerce des États-Unis testera la sécurité de nouveaux modèles d’intelligence artificielle de Google, Microsoft et xAI avant leur diffusion ou leur déploiement, dans le cadre d’accords volontaires annoncés mardi par son Center for AI Standards and Innovation (CAISI).

Ces accords donnent aux scientifiques fédéraux un accès à des systèmes d’IA de pointe de trois grands développeurs, au moment où Washington cherche à évaluer les risques de sécurité posés par des modèles de plus en plus performants, sans imposer de règles obligatoires étendues au secteur.

La CAISI a indiqué que le travail inclura des tests, de la recherche collaborative et l’élaboration de bonnes pratiques pour les systèmes d’IA commerciaux, avec des évaluations centrées sur les capacités et la sécurité. Le directeur du centre, Chris Fall, a déclaré que ces accords élargiraient l’action du gouvernement « dans l’intérêt public à un moment critique ».

Les accords prolongent des dispositifs antérieurs conclus sous l’administration Biden avec OpenAI et Anthropic. Le centre de tests du Département du Commerce, alors connu sous le nom de US Artificial Intelligence Safety Institute, a servi de pôle fédéral pour les évaluations d’IA et les normes de sécurité volontaires.

La CAISI a indiqué mardi avoir mené plus de 40 évaluations antérieures, dont des tests de « modèles de pointe qui ne sont pas encore publiés ». Elle n’a pas identifié ces modèles. L’agence a précisé que les développeurs fournissent souvent des versions de modèles dont certains garde-fous ont été retirés afin que les évaluateurs puissent sonder les risques pour la sécurité nationale.

Microsoft a déclaré qu’elle travaillerait avec des scientifiques du gouvernement américain pour tester des systèmes d’IA « d’une manière qui explore les comportements inattendus » et pour élaborer des jeux de données et des processus de travail partagés pour l’évaluation des modèles. L’entreprise a également indiqué avoir signé un accord similaire avec l’AI Security Institute du Royaume-Uni. Google a refusé de commenter auprès d’Al Jazeera, et xAI n’a pas répondu immédiatement à sa demande de commentaire.

Cette annonce intervient sur fond d’inquiétudes croissantes à Washington quant à l’usage abusif possible de systèmes d’IA avancés dans des cyberattaques ou des environnements militaires. L’attention récente s’est en partie portée sur le modèle Mythos d’Anthropic et sur la question de savoir si des systèmes puissants pourraient renforcer considérablement les capacités des pirates informatiques avant que les gouvernements et les entreprises n’en comprennent pleinement les risques.

Ces accords de test font également suite à un accord du Pentagone avec sept entreprises technologiques — dont Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection et SpaceX — pour utiliser des systèmes d’IA sur des réseaux informatiques classifiés. Le département de la Défense a indiqué que cet arrangement vise à « renforcer la prise de décision des combattants dans des environnements opérationnels complexes ».

Cette initiative marque une expansion notable de l’accès fédéral aux modèles des entreprises sous le président Donald Trump, dont l’administration a par ailleurs mis l’accent sur la réduction des obstacles réglementaires au développement de l’IA. L’an dernier, Trump a signé des décrets présidentiels posant les bases d’un AI Action Plan qui, a-t-il déclaré, devait « supprimer les lourdeurs administratives et la réglementation contraignante » et aider les États-Unis à l’emporter grâce à l’avancement et au contrôle de l’IA.

L’annonce publique n’a pas nommé les modèles spécifiques de Google, Microsoft ou xAI qui seront examinés, ni précisé dans quelle mesure les conclusions de la CAISI seront rendues publiques. Pour l’heure, ces accords placent un plus grand nombre des systèmes d’IA commerciaux les plus puissants dans un processus fédéral de test avant qu’ils ne soient plus largement utilisés.

Plus dans cette rubrique

Actualités Technologie

Chiffres évoqués

Plus depuis ce lieu

Mots-clés associés

Articles connexes

Balise partagée : AI Safety Confiance dans l’IA
Des chatbots d’IA plus conviviaux seraient moins précis, selon une étude

Des chercheurs de l’Oxford Internet Institute ont constaté que des modèles réglés pour paraître plus chaleureux faisaient davantage d’erreurs et validaient plus souvent des croyances fausses

Avr 29, 2026
Balise partagée : Artificial intelligence Procès d’OpenAI
Altman défend son leadership alors que la poursuite de Musk met à l’épreuve la mission d’OpenAI

Le chef d’OpenAI a dit à un jury fédéral à Oakland qu’il est digne de confiance et a affirmé que Musk avait cherché à conserver un contrôle durable sur le créateur de ChatGPT avant de quitter l’entreprise

Mai 13, 2026 Oakland
Balise partagée : Artificial intelligence
Google plans up to $40 billion Anthropic investment

The agreement starts with $10 billion and could add $30 billion more if performance milestones are met, deepening a partnership around Claude and cloud infrastructure

Avr 28, 2026 anthropic features
Balise partagée : Artificial intelligence U.S.-China tech race
China Was Denied Access to Anthropic’s Newest AI, Report Says

The limited source summary says newer Anthropic and OpenAI models are widening the U.S. edge over China, but key details remain unavailable

Mai 12, 2026 anthropic features
Balise partagée : Artificial intelligence Intelligence artificielle
Les agents d’IA commencent à faire des achats pour les consommateurs. Des experts appellent à la prudence

Les détaillants et les entreprises de paiement testent le commerce agentique, mais des spécialistes avertissent que des achats autonomes peuvent exposer les consommateurs à des erreurs coûteuses et à des risques pour les données

Avr 28, 2026 United States
Balise partagée : Artificial intelligence Artificial intelligence
Microsoft CEO Questioned in Court Over OpenAI Control

The court exchange centered on whether Microsoft had too much influence over OpenAI, an organization described as intended to operate as an A.I. nonprofit

Mai 12, 2026

Commentaires (0)

Veuillez vous connecter pour commenter.
Pas encore de commentaires.