نظارت بر هوش مصنوعی

آمریکا مدل‌های Google، Microsoft و xAI را پیش از عرضه آزمایش می‌کند

توافق‌های داوطلبانه وزارت بازرگانی دسترسی زودهنگام CAISI به سیستم‌های پیشرو را فراهم می‌کند، در حالی که واشنگتن مخاطرات امنیتی ناشی از هوش مصنوعی قدرتمندتر را می‌سنجد

زبان مبدا: English ترجمه شده با هوش مصنوعی به Persian
0
آمریکا مدل‌های Google، Microsoft و xAI را پیش از عرضه آزمایش می‌کند
مکان
Washington
Washington, District of Columbia, United States
Google، Microsoft و xAI موافقت کردند که یک مرکز وابسته به وزارت بازرگانی پیش از انتشار عمومی، مدل‌های جدید هوش مصنوعی آن‌ها را ارزیابی کند و بدین‌ترتیب دامنه آزمون‌های ایمنی فدرال گسترش یابد.
ایمنی هوش مصنوعی هوش مصنوعی گوگل مایکروسافت xAI

Google، Microsoft و xAI موافقت کردند که یک مرکز وابسته به وزارت بازرگانی پیش از انتشار عمومی، مدل‌های جدید هوش مصنوعی آن‌ها را ارزیابی کند و بدین‌ترتیب دامنه آزمون‌های ایمنی فدرال گسترش یابد.

واشنگتن — وزارت بازرگانی ایالات متحده بر اساس توافق‌های داوطلبانه‌ای که روز سه‌شنبه از سوی Center for AI Standards and Innovation اعلام شد، پیش از انتشار یا استقرار، مدل‌های جدید هوش مصنوعی Google، Microsoft و xAI را از نظر ایمنی آزمایش خواهد کرد.

این توافق‌ها در زمانی که واشنگتن در تلاش است بدون وضع قواعد الزامی گسترده برای این بخش، مخاطرات امنیتی ناشی از مدل‌های هرچه توانمندتر را ارزیابی کند، به دانشمندان فدرال دسترسی به سیستم‌های پیشرو این سه توسعه‌دهنده بزرگ را می‌دهد.

CAISI اعلام کرد این کار شامل آزمون، تحقیق و توسعه مشترک و تدوین بهترین رویه‌ها برای سیستم‌های تجاری هوش مصنوعی خواهد بود و ارزیابی‌ها بر قابلیت‌ها و امنیت متمرکز است. مدیر این مرکز، Chris Fall، گفت این توافق‌ها کار دولت را «در جهت منافع عمومی در لحظه‌ای حیاتی» گسترش می‌دهد.

این توافق‌ها ترتیبات قبلیِ حاصل‌شده در دولت بایدن با OpenAI و Anthropic را توسعه می‌دهند. مرکز آزمون وزارت بازرگانی، که آن زمان با نام US Artificial Intelligence Safety Institute شناخته می‌شد، به‌عنوان قطب فدرال ارزیابی‌های هوش مصنوعی و استانداردهای داوطلبانه ایمنی به کار گرفته شده است.

CAISI روز سه‌شنبه گفت که بیش از 40 ارزیابی قبلی را تکمیل کرده است، از جمله آزمون‌هایی روی «مدل‌های پیشرفته‌ای که همچنان منتشر نشده‌اند». این مرکز آن مدل‌ها را مشخص نکرد. این نهاد گفته است توسعه‌دهندگان اغلب نسخه‌هایی از مدل‌ها را ارائه می‌کنند که برخی محدودیت‌ها در آن‌ها کاهش یافته تا ارزیابان بتوانند مخاطرات امنیت ملی را بررسی کنند.

Microsoft گفت با دانشمندان دولت ایالات متحده همکاری خواهد کرد تا سیستم‌های هوش مصنوعی را «به شیوه‌هایی که رفتارهای غیرمنتظره را واکاوی می‌کند» بیازمایند و مجموعه‌داده‌ها و جریان‌های کاری مشترکی برای ارزیابی مدل توسعه دهند. این شرکت همچنین گفت توافق مشابهی را با مؤسسه امنیت هوش مصنوعی بریتانیا امضا کرده است. Google از اظهارنظر به الجزیره خودداری کرد و xAI نیز بلافاصله به درخواست اظهارنظر آن پاسخ نداد.

این اعلام در بحبوحه نگرانی فزاینده در واشنگتن درباره اینکه چگونه سیستم‌های پیشرفته هوش مصنوعی ممکن است در حملات سایبری یا محیط‌های نظامی مورد سوءاستفاده قرار گیرند منتشر می‌شود. توجه اخیر تا حدی بر مدل Mythos متعلق به Anthropic و این پرسش متمرکز بوده است که آیا سیستم‌های قدرتمند می‌توانند پیش از آن‌که دولت‌ها و شرکت‌ها به‌طور کامل مخاطراتشان را درک کنند، توان هکرها را به‌شدت افزایش دهند یا نه.

این توافق‌های آزمون پس از توافقی از سوی پنتاگون با هفت شرکت فناوری — از جمله Google، Microsoft، Amazon Web Services، Nvidia، OpenAI، Reflection و SpaceX — برای استفاده از سیستم‌های هوش مصنوعی در سراسر شبکه‌های رایانه‌ای طبقه‌بندی‌شده نیز صورت می‌گیرد. وزارت دفاع گفت این ترتیبات با هدف کمک به «تقویت تصمیم‌گیری رزمندگان در محیط‌های عملیاتی پیچیده» انجام شده است.

این اقدام نشان‌دهنده گسترش قابل توجه دسترسی فدرال به مدل‌های شرکتی در دوره رئیس‌جمهور Donald Trump است؛ دولتی که در غیر این صورت بر کاهش موانع مقرراتی برای توسعه هوش مصنوعی تأکید کرده است. Trump سال گذشته فرمان‌های اجرایی‌ای را امضا کرد که مبنای یک برنامه اقدام هوش مصنوعی را شکل دادند؛ اقدامی که به گفته او باید «تشریفات اداری و مقررات سنگین را حذف کند» و به ایالات متحده کمک کند از طریق پیشرفت و کنترل در حوزه هوش مصنوعی پیروز شود.

این اعلام عمومی نام مدل‌های مشخص Google، Microsoft یا xAI که قرار است بررسی شوند را ذکر نکرد و همچنین مشخص نکرد چه میزان از یافته‌های CAISI منتشر خواهد شد. در حال حاضر، این توافق‌ها شمار بیشتری از قدرتمندترین سیستم‌های تجاری هوش مصنوعی را پیش از آن‌که به استفاده گسترده‌تر برسند، وارد فرایند آزمون فدرال می‌کند.

بیشتر از این بخش

اخبار فناوری

چهره‌های اشاره‌شده

بیشتر از این مکان

برچسب‌های مرتبط

مقالات مرتبط

برچسب مشترک: AI Safety اعتماد به هوش مصنوعی
مطالعه‌ای نشان می‌دهد چت‌بات‌های دوستانه‌ترِ هوش مصنوعی ممکن است کم‌دقت‌تر باشند

پژوهشگران Oxford Internet Institute دریافتند مدل‌هایی که برای لحن گرم‌تر تنظیم شده‌اند، خطاهای بیشتری مرتکب شدند و با احتمال بیشتری باورهای نادرست را تأیید کردند

آوریل 29, 2026
برچسب مشترک: Artificial intelligence OpenAI trial
Altman defends his leadership as Musk lawsuit tests OpenAI’s mission

The OpenAI chief told a federal jury in Oakland that he is trustworthy and said Musk sought lasting control of the ChatGPT maker before leaving the company

مه 13, 2026 Oakland
برچسب مشترک: Artificial intelligence
برنامه Google برای سرمایه‌گذاری تا 40 میلیارد دلار در Anthropic

این توافق با 10 میلیارد دلار آغاز می‌شود و در صورت تحقق اهداف عملکردی می‌تواند 30 میلیارد دلار دیگر اضافه کند و شراکت پیرامون Claude و زیرساخت‌های ابری را عمیق‌تر کند.

آوریل 28, 2026 anthropic features
برچسب مشترک: Artificial intelligence U.S.-China tech race
China Was Denied Access to Anthropic’s Newest AI, Report Says

The limited source summary says newer Anthropic and OpenAI models are widening the U.S. edge over China, but key details remain unavailable

مه 12, 2026 anthropic features
برچسب مشترک: Artificial intelligence هوش مصنوعی
عامل‌های هوش مصنوعی به‌جای مصرف‌کنندگان شروع به خرید کرده‌اند؛ کارشناسان هشدار می‌دهند

خرده‌فروشان و شرکت‌های پرداخت در حال آزمایش تجارت عامل‌محورند، اما متخصصان هشدار می‌دهند خریدهای خودمختار می‌تواند خریداران را در معرض خطاهای پرهزینه و مخاطرات داده‌ای قرار دهد

آوریل 28, 2026 United States
برچسب مشترک: Artificial intelligence Artificial intelligence
Microsoft CEO Questioned in Court Over OpenAI Control

The court exchange centered on whether Microsoft had too much influence over OpenAI, an organization described as intended to operate as an A.I. nonprofit

مه 12, 2026

نظرات (0)

برای ثبت نظر لطفاً وارد شوید.
هنوز هیچ نظری ثبت نشده است.