واشنگتن مصمم است بر هوش مصنوعی حکومت کند، اما چگونه؟

واشنگتن مصمم است بر هوش مصنوعی حکومت کند، اما چگونه؟

برخی از پیشنهادات بر روی هوش مصنوعی تمرکز دارند که ممکن است زندگی یا معیشت مردم را به خطر بیندازد. (نمایندگی)

واشنگتن:

قانونگذاران ایالات متحده در حال مبارزه با این هستند که چه نرده هایی را در اطراف هوش مصنوعی رو به رشد قرار دهند، اما ماه ها پس از اینکه ChatGPT توجه واشنگتن را به خود جلب کرد، اجماع چندان قطعی نیست.

مصاحبه با یک سناتور آمریکایی، کارکنان کنگره، شرکت‌های هوش مصنوعی و گروه‌های ذینفع نشان می‌دهد که گزینه‌های مختلفی در دست بحث است.

برخی از پیشنهادها بر روی هوش مصنوعی متمرکز هستند که ممکن است زندگی یا معیشت افراد را در معرض خطر قرار دهد، مانند پزشکی و مالی. سایر امکانات عبارتند از قوانینی برای اطمینان از اینکه هوش مصنوعی برای تبعیض یا نقض حقوق مدنی افراد استفاده نمی شود.

بحث دیگر این است که آیا توسعه دهنده هوش مصنوعی یا شرکتی که از آن برای تعامل با مصرف کنندگان استفاده می کند تنظیم شود. و OpenAI، استارتاپی که پشت ربات چت چت GPT است، درباره تنظیم کننده هوش مصنوعی مستقل بحث کرده است.

مشخص نیست که کدام رویکرد برنده خواهد شد، اما برخی در جامعه تجاری، از جمله IBM و اتاق بازرگانی ایالات متحده، رویکردی را ترجیح می‌دهند که فقط حوزه‌های حیاتی مانند تشخیص‌های پزشکی را تنظیم می‌کند، که آنها آن را رویکرد مبتنی بر ریسک می‌نامند.

جردن کرنشاو از مرکز تعامل فناوری اتاق گفت: اگر کنگره تصمیم بگیرد که قوانین جدید ضروری است، کمیسیون هوش مصنوعی اتاق ایالات متحده از این حمایت می کند که “خطر بر اساس تاثیر بر افراد تعیین شود.” “یک توصیه ویدئویی ممکن است به اندازه تصمیمات اتخاذ شده در مورد سلامت یا امور مالی خطرآفرین نباشد.”

محبوبیت فزاینده به اصطلاح هوش مصنوعی مولد، که از داده‌ها برای ایجاد محتوای جدید مانند نثر انسانی ChatGPT استفاده می‌کند، نگرانی‌هایی را برانگیخته است که فناوری به سرعت در حال توسعه می‌تواند تقلب در امتحانات را تشویق کند، اطلاعات نادرست را تقویت کند و منجر به نسل جدیدی از کلاهبرداری شود.

هیاهوی هوش مصنوعی منجر به انبوهی از جلسات شده است، از جمله بازدید مدیران اجرایی OpenAI در این ماه از کاخ سفید، شرکت مایکروسافت حامی آن، و جو بایدن، رئیس جمهور شرکت آلفابت، با مدیران اجرایی ملاقات کرد.

دستیاران کنگره و کارشناسان فناوری می گویند که کنگره نیز به همین ترتیب درگیر است.

جک کلارک، یکی از بنیان‌گذاران استارت‌آپ برجسته هوش مصنوعی Anthropic، که مدیرعامل آن نیز در جلسه کاخ سفید حضور داشت، گفت: «کارکنان در سراسر مجلس و سنا اساساً بیدار شده‌اند و از همه خواسته می‌شود تا با این موضوع همکاری کنند. مردم می خواهند از هوش مصنوعی جلوتر باشند، تا حدی به این دلیل که احساس می کنند از رسانه های اجتماعی پیشی نگرفته اند.

آدام کواچویچ، رئیس اتاق پیشرفت فن‌آوری، گفت: با سرعت گرفتن قانون‌گذاران، اولویت اصلی فناوری بزرگ مقابله با «واکنش بیش از حد زودهنگام» است.

و در حالی که قانون‌گذارانی مانند چاک شومر، رهبر اکثریت سنا، مصمم هستند که مسائل هوش مصنوعی را به روشی دو حزبی حل کنند، واقعیت این است که کنگره قطبی شده است، انتخابات ریاست‌جمهوری در سال آینده برگزار می‌شود و قانون‌گذاران به مسائل بزرگ دیگری مانند افزایش سقف بدهی‌ها می‌پردازند.

طرح پیشنهادی شومر به کارشناسان مستقل نیاز دارد تا فناوری‌های هوش مصنوعی جدید را قبل از انتشار آزمایش کنند. همچنین خواستار شفافیت و ارائه اطلاعات مورد نیاز دولت برای جلوگیری از آسیب است.

مدیریت خرد دولتی

رویکرد مبتنی بر ریسک به این معنی است که برای مثال، هوش مصنوعی برای تشخیص سرطان توسط سازمان غذا و دارو مورد بررسی قرار می گیرد، در حالی که هوش مصنوعی برای سرگرمی تنظیم نمی شود. اتحادیه اروپا به سمت تصویب قوانین مشابه حرکت کرده است.

اما تمرکز بر ریسک‌ها برای سناتور دموکرات مایکل بنت، که لایحه‌ای را برای تشکیل کارگروه هوش مصنوعی دولتی ارائه کرد، کافی به نظر نمی‌رسد. او گفت که از یک “رویکرد مبتنی بر ارزش” برای اولویت دادن به حریم خصوصی، آزادی های مدنی و حقوق دفاع می کند.

یکی از دستیاران Bennet اضافه کرد، قوانین مبتنی بر ریسک ممکن است خیلی سفت و سخت باشند و نتوانند خطراتی مانند استفاده از هوش مصنوعی را برای توصیه ویدیوهایی که برتری سفیدپوست را تبلیغ می کنند، تشخیص دهند.

قانونگذاران همچنین در مورد بهترین روش برای اطمینان از عدم استفاده از هوش مصنوعی برای تبعیض نژادی بحث کرده اند، شاید در تصمیم گیری در مورد اینکه چه کسی وام مسکن با بهره کم دریافت می کند، به گفته شخصی که بحث های کنگره را دنبال می کند و مجاز به صحبت با خبرنگاران نیست.

در OpenAI، کارکنان نظارت گسترده تری را در نظر گرفته اند.

کالن اوکیف، دانشمند تحقیقاتی OpenAI، در یک سخنرانی در ماه آوریل در دانشگاه استنفورد، ایجاد آژانسی را پیشنهاد کرد که شرکت‌ها را ملزم می‌کند قبل از آموزش مدل‌های قدرتمند هوش مصنوعی یا راه‌اندازی مراکز داده‌ای که آنها را تسهیل می‌کنند، مجوز دریافت کنند. به گفته اوکیف، این آژانس را می توان دفتر ایمنی هوش مصنوعی و امنیت زیرساخت یا OASIS نامید.

میرا موراتی، مدیر ارشد فناوری OpenAI، در پاسخ به سوالی درباره این پیشنهاد، گفت که یک نهاد قابل اعتماد می‌تواند توسعه‌دهندگان را در قبال استانداردهای ایمنی «مسئول نگه دارد». اما مهمتر از مکانیک توافق بود “در مورد استانداردها، چه خطراتی که شما سعی در کاهش آن دارید.”

آخرین تنظیم کننده بزرگی که ایجاد شد، دفتر حمایت مالی از مصرف کننده بود که پس از بحران مالی 2007-2008 راه اندازی شد.

برخی از جمهوری خواهان ممکن است از هرگونه مقررات هوش مصنوعی مخالفت کنند.

یکی از دستیاران جمهوریخواه سنا به رویترز گفت: «ما باید مراقب باشیم که پیشنهادات نظارتی هوش مصنوعی به مکانیزمی برای مدیریت خرد دولتی کدهای کامپیوتری مانند موتورهای جستجو و الگوریتم‌ها تبدیل نشود.

(به جز عنوان، این داستان توسط کارکنان NDTV ویرایش نشده است و از یک فید سندیکایی منتشر شده است.)