Google، Microsoft و xAI موافقت کردند که یک مرکز وابسته به وزارت بازرگانی پیش از انتشار عمومی، مدلهای جدید هوش مصنوعی آنها را ارزیابی کند و بدینترتیب دامنه آزمونهای ایمنی فدرال گسترش یابد.
واشنگتن — وزارت بازرگانی ایالات متحده بر اساس توافقهای داوطلبانهای که روز سهشنبه از سوی Center for AI Standards and Innovation اعلام شد، پیش از انتشار یا استقرار، مدلهای جدید هوش مصنوعی Google، Microsoft و xAI را از نظر ایمنی آزمایش خواهد کرد.
این توافقها در زمانی که واشنگتن در تلاش است بدون وضع قواعد الزامی گسترده برای این بخش، مخاطرات امنیتی ناشی از مدلهای هرچه توانمندتر را ارزیابی کند، به دانشمندان فدرال دسترسی به سیستمهای پیشرو این سه توسعهدهنده بزرگ را میدهد.
CAISI اعلام کرد این کار شامل آزمون، تحقیق و توسعه مشترک و تدوین بهترین رویهها برای سیستمهای تجاری هوش مصنوعی خواهد بود و ارزیابیها بر قابلیتها و امنیت متمرکز است. مدیر این مرکز، Chris Fall، گفت این توافقها کار دولت را «در جهت منافع عمومی در لحظهای حیاتی» گسترش میدهد.
این توافقها ترتیبات قبلیِ حاصلشده در دولت بایدن با OpenAI و Anthropic را توسعه میدهند. مرکز آزمون وزارت بازرگانی، که آن زمان با نام US Artificial Intelligence Safety Institute شناخته میشد، بهعنوان قطب فدرال ارزیابیهای هوش مصنوعی و استانداردهای داوطلبانه ایمنی به کار گرفته شده است.
CAISI روز سهشنبه گفت که بیش از 40 ارزیابی قبلی را تکمیل کرده است، از جمله آزمونهایی روی «مدلهای پیشرفتهای که همچنان منتشر نشدهاند». این مرکز آن مدلها را مشخص نکرد. این نهاد گفته است توسعهدهندگان اغلب نسخههایی از مدلها را ارائه میکنند که برخی محدودیتها در آنها کاهش یافته تا ارزیابان بتوانند مخاطرات امنیت ملی را بررسی کنند.
Microsoft گفت با دانشمندان دولت ایالات متحده همکاری خواهد کرد تا سیستمهای هوش مصنوعی را «به شیوههایی که رفتارهای غیرمنتظره را واکاوی میکند» بیازمایند و مجموعهدادهها و جریانهای کاری مشترکی برای ارزیابی مدل توسعه دهند. این شرکت همچنین گفت توافق مشابهی را با مؤسسه امنیت هوش مصنوعی بریتانیا امضا کرده است. Google از اظهارنظر به الجزیره خودداری کرد و xAI نیز بلافاصله به درخواست اظهارنظر آن پاسخ نداد.
این اعلام در بحبوحه نگرانی فزاینده در واشنگتن درباره اینکه چگونه سیستمهای پیشرفته هوش مصنوعی ممکن است در حملات سایبری یا محیطهای نظامی مورد سوءاستفاده قرار گیرند منتشر میشود. توجه اخیر تا حدی بر مدل Mythos متعلق به Anthropic و این پرسش متمرکز بوده است که آیا سیستمهای قدرتمند میتوانند پیش از آنکه دولتها و شرکتها بهطور کامل مخاطراتشان را درک کنند، توان هکرها را بهشدت افزایش دهند یا نه.
این توافقهای آزمون پس از توافقی از سوی پنتاگون با هفت شرکت فناوری — از جمله Google، Microsoft، Amazon Web Services، Nvidia، OpenAI، Reflection و SpaceX — برای استفاده از سیستمهای هوش مصنوعی در سراسر شبکههای رایانهای طبقهبندیشده نیز صورت میگیرد. وزارت دفاع گفت این ترتیبات با هدف کمک به «تقویت تصمیمگیری رزمندگان در محیطهای عملیاتی پیچیده» انجام شده است.
این اقدام نشاندهنده گسترش قابل توجه دسترسی فدرال به مدلهای شرکتی در دوره رئیسجمهور Donald Trump است؛ دولتی که در غیر این صورت بر کاهش موانع مقرراتی برای توسعه هوش مصنوعی تأکید کرده است. Trump سال گذشته فرمانهای اجراییای را امضا کرد که مبنای یک برنامه اقدام هوش مصنوعی را شکل دادند؛ اقدامی که به گفته او باید «تشریفات اداری و مقررات سنگین را حذف کند» و به ایالات متحده کمک کند از طریق پیشرفت و کنترل در حوزه هوش مصنوعی پیروز شود.
این اعلام عمومی نام مدلهای مشخص Google، Microsoft یا xAI که قرار است بررسی شوند را ذکر نکرد و همچنین مشخص نکرد چه میزان از یافتههای CAISI منتشر خواهد شد. در حال حاضر، این توافقها شمار بیشتری از قدرتمندترین سیستمهای تجاری هوش مصنوعی را پیش از آنکه به استفاده گستردهتر برسند، وارد فرایند آزمون فدرال میکند.
نظرات (0)