
برخی از پیشنهادات بر روی هوش مصنوعی تمرکز دارند که ممکن است زندگی یا معیشت مردم را به خطر بیندازد. (نمایندگی)
واشنگتن:
قانونگذاران ایالات متحده در حال مبارزه با این هستند که چه نرده هایی را در اطراف هوش مصنوعی رو به رشد قرار دهند، اما ماه ها پس از اینکه ChatGPT توجه واشنگتن را به خود جلب کرد، اجماع چندان قطعی نیست.
مصاحبه با یک سناتور آمریکایی، کارکنان کنگره، شرکتهای هوش مصنوعی و گروههای ذینفع نشان میدهد که گزینههای مختلفی در دست بحث است.
برخی از پیشنهادها بر روی هوش مصنوعی متمرکز هستند که ممکن است زندگی یا معیشت افراد را در معرض خطر قرار دهد، مانند پزشکی و مالی. سایر امکانات عبارتند از قوانینی برای اطمینان از اینکه هوش مصنوعی برای تبعیض یا نقض حقوق مدنی افراد استفاده نمی شود.
بحث دیگر این است که آیا توسعه دهنده هوش مصنوعی یا شرکتی که از آن برای تعامل با مصرف کنندگان استفاده می کند تنظیم شود. و OpenAI، استارتاپی که پشت ربات چت چت GPT است، درباره تنظیم کننده هوش مصنوعی مستقل بحث کرده است.
مشخص نیست که کدام رویکرد برنده خواهد شد، اما برخی در جامعه تجاری، از جمله IBM و اتاق بازرگانی ایالات متحده، رویکردی را ترجیح میدهند که فقط حوزههای حیاتی مانند تشخیصهای پزشکی را تنظیم میکند، که آنها آن را رویکرد مبتنی بر ریسک مینامند.
جردن کرنشاو از مرکز تعامل فناوری اتاق گفت: اگر کنگره تصمیم بگیرد که قوانین جدید ضروری است، کمیسیون هوش مصنوعی اتاق ایالات متحده از این حمایت می کند که “خطر بر اساس تاثیر بر افراد تعیین شود.” “یک توصیه ویدئویی ممکن است به اندازه تصمیمات اتخاذ شده در مورد سلامت یا امور مالی خطرآفرین نباشد.”
محبوبیت فزاینده به اصطلاح هوش مصنوعی مولد، که از دادهها برای ایجاد محتوای جدید مانند نثر انسانی ChatGPT استفاده میکند، نگرانیهایی را برانگیخته است که فناوری به سرعت در حال توسعه میتواند تقلب در امتحانات را تشویق کند، اطلاعات نادرست را تقویت کند و منجر به نسل جدیدی از کلاهبرداری شود.
هیاهوی هوش مصنوعی منجر به انبوهی از جلسات شده است، از جمله بازدید مدیران اجرایی OpenAI در این ماه از کاخ سفید، شرکت مایکروسافت حامی آن، و جو بایدن، رئیس جمهور شرکت آلفابت، با مدیران اجرایی ملاقات کرد.
دستیاران کنگره و کارشناسان فناوری می گویند که کنگره نیز به همین ترتیب درگیر است.
جک کلارک، یکی از بنیانگذاران استارتآپ برجسته هوش مصنوعی Anthropic، که مدیرعامل آن نیز در جلسه کاخ سفید حضور داشت، گفت: «کارکنان در سراسر مجلس و سنا اساساً بیدار شدهاند و از همه خواسته میشود تا با این موضوع همکاری کنند. مردم می خواهند از هوش مصنوعی جلوتر باشند، تا حدی به این دلیل که احساس می کنند از رسانه های اجتماعی پیشی نگرفته اند.
آدام کواچویچ، رئیس اتاق پیشرفت فنآوری، گفت: با سرعت گرفتن قانونگذاران، اولویت اصلی فناوری بزرگ مقابله با «واکنش بیش از حد زودهنگام» است.
و در حالی که قانونگذارانی مانند چاک شومر، رهبر اکثریت سنا، مصمم هستند که مسائل هوش مصنوعی را به روشی دو حزبی حل کنند، واقعیت این است که کنگره قطبی شده است، انتخابات ریاستجمهوری در سال آینده برگزار میشود و قانونگذاران به مسائل بزرگ دیگری مانند افزایش سقف بدهیها میپردازند.
طرح پیشنهادی شومر به کارشناسان مستقل نیاز دارد تا فناوریهای هوش مصنوعی جدید را قبل از انتشار آزمایش کنند. همچنین خواستار شفافیت و ارائه اطلاعات مورد نیاز دولت برای جلوگیری از آسیب است.
مدیریت خرد دولتی
رویکرد مبتنی بر ریسک به این معنی است که برای مثال، هوش مصنوعی برای تشخیص سرطان توسط سازمان غذا و دارو مورد بررسی قرار می گیرد، در حالی که هوش مصنوعی برای سرگرمی تنظیم نمی شود. اتحادیه اروپا به سمت تصویب قوانین مشابه حرکت کرده است.
اما تمرکز بر ریسکها برای سناتور دموکرات مایکل بنت، که لایحهای را برای تشکیل کارگروه هوش مصنوعی دولتی ارائه کرد، کافی به نظر نمیرسد. او گفت که از یک “رویکرد مبتنی بر ارزش” برای اولویت دادن به حریم خصوصی، آزادی های مدنی و حقوق دفاع می کند.
یکی از دستیاران Bennet اضافه کرد، قوانین مبتنی بر ریسک ممکن است خیلی سفت و سخت باشند و نتوانند خطراتی مانند استفاده از هوش مصنوعی را برای توصیه ویدیوهایی که برتری سفیدپوست را تبلیغ می کنند، تشخیص دهند.
قانونگذاران همچنین در مورد بهترین روش برای اطمینان از عدم استفاده از هوش مصنوعی برای تبعیض نژادی بحث کرده اند، شاید در تصمیم گیری در مورد اینکه چه کسی وام مسکن با بهره کم دریافت می کند، به گفته شخصی که بحث های کنگره را دنبال می کند و مجاز به صحبت با خبرنگاران نیست.
در OpenAI، کارکنان نظارت گسترده تری را در نظر گرفته اند.
کالن اوکیف، دانشمند تحقیقاتی OpenAI، در یک سخنرانی در ماه آوریل در دانشگاه استنفورد، ایجاد آژانسی را پیشنهاد کرد که شرکتها را ملزم میکند قبل از آموزش مدلهای قدرتمند هوش مصنوعی یا راهاندازی مراکز دادهای که آنها را تسهیل میکنند، مجوز دریافت کنند. به گفته اوکیف، این آژانس را می توان دفتر ایمنی هوش مصنوعی و امنیت زیرساخت یا OASIS نامید.
میرا موراتی، مدیر ارشد فناوری OpenAI، در پاسخ به سوالی درباره این پیشنهاد، گفت که یک نهاد قابل اعتماد میتواند توسعهدهندگان را در قبال استانداردهای ایمنی «مسئول نگه دارد». اما مهمتر از مکانیک توافق بود “در مورد استانداردها، چه خطراتی که شما سعی در کاهش آن دارید.”
آخرین تنظیم کننده بزرگی که ایجاد شد، دفتر حمایت مالی از مصرف کننده بود که پس از بحران مالی 2007-2008 راه اندازی شد.
برخی از جمهوری خواهان ممکن است از هرگونه مقررات هوش مصنوعی مخالفت کنند.
یکی از دستیاران جمهوریخواه سنا به رویترز گفت: «ما باید مراقب باشیم که پیشنهادات نظارتی هوش مصنوعی به مکانیزمی برای مدیریت خرد دولتی کدهای کامپیوتری مانند موتورهای جستجو و الگوریتمها تبدیل نشود.
(به جز عنوان، این داستان توسط کارکنان NDTV ویرایش نشده است و از یک فید سندیکایی منتشر شده است.)