کارشناسان می گویند مقابله با خطرات ناشی از هوش مصنوعی باید “اولویت جهانی” باشد

کارشناسان می گویند مقابله با خطرات ناشی از هوش مصنوعی باید «اولویت جهانی» باشد

موفقیت بی‌نظیر ChatGPT با میلیاردها دلار سرمایه‌گذاری باعث افزایش طلا شد. (نمایندگی)

پاریس:

گروهی از روسای صنعت و کارشناسان روز سه شنبه هشدار دادند که رهبران جهانی باید برای کاهش “خطر انقراض” ناشی از فناوری هوش مصنوعی تلاش کنند.

یک بیانیه تک خطی که توسط ده‌ها متخصص، از جمله سام آلتمن که شرکت OpenAI او ربات ChatGPT را ایجاد کرد، امضا کرد، گفت که مقابله با خطرات ناشی از هوش مصنوعی باید “یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند همه‌گیری‌ها و جنگ هسته‌ای” باشد.

ChatGPT در اواخر سال گذشته مورد توجه قرار گرفت و توانایی تولید مقاله، شعر و مکالمه را از کوتاه ترین درخواست ها نشان داد.

موفقیت بی‌نظیر این برنامه با میلیاردها دلار سرمایه‌گذاری در این زمینه، موجی از هجوم طلا را به همراه داشت، اما منتقدان و افراد داخلی زنگ خطر را به صدا درآورده‌اند.

نگرانی‌های رایج شامل این احتمال است که چت‌بات‌ها می‌توانند وب را با اطلاعات نادرست پر کنند، الگوریتم‌های مغرضانه مواد نژادپرستانه را تولید می‌کنند، یا اینکه اتوماسیون مبتنی بر هوش مصنوعی می‌تواند کل صنایع را هدر دهد.

ماشین های فوق هوشمند

آخرین بیانیه که در وب سایت مرکز غیرانتفاعی ایمنی هوش مصنوعی مستقر در ایالات متحده قرار گرفته است، هیچ جزئیاتی از تهدید وجودی بالقوه ناشی از هوش مصنوعی ارائه نکرده است.

این مرکز گفت که “بیانیه مختصر” به منظور باز کردن بحث در مورد خطرات این فناوری است.

چندین امضاکننده، از جمله جفری هینتون، که برخی از فناوری‌های زیربنایی سیستم‌های هوش مصنوعی را ایجاد کرده و به عنوان یکی از پدرخوانده‌های این صنعت شناخته می‌شود، در گذشته هشدارهای مشابهی داده‌اند.

بزرگترین نگرانی آنها ظهور به اصطلاح هوش عمومی مصنوعی (AGI) بوده است – مفهومی که برای لحظه ای تعریف نشده است که ماشین ها قادر به انجام عملکردهای گسترده می شوند و می توانند برنامه نویسی خود را توسعه دهند.

ترس این است که انسان ها دیگر کنترلی بر ماشین های فوق هوشمند نداشته باشند، که کارشناسان هشدار داده اند که می تواند عواقب فاجعه باری برای گونه ها و سیاره زمین داشته باشد.

ده‌ها نفر از دانشگاهیان و متخصصان شرکت‌هایی از جمله گوگل و مایکروسافت – هر دو پیشرو در زمینه هوش مصنوعی – این بیانیه را امضا کردند.

این دو ماه پس از آن صورت می‌گیرد که ایلان ماسک، رئیس تسلا و صدها نفر دیگر، نامه‌ای سرگشاده صادر کردند و خواستار توقف در توسعه چنین فناوری‌هایی شدند تا زمانی که ثابت شود ایمن است.

با این حال، نامه آقای ماسک باعث انتقادات گسترده ای شد مبنی بر اینکه هشدارهای وحشتناک در مورد فروپاشی جامعه بسیار اغراق آمیز بوده و اغلب منعکس کننده نکات صحبت تقویت کننده های هوش مصنوعی است.

امیلی بندر، آکادمیک آمریکایی که در مقاله‌ای با نفوذ در انتقاد از هوش مصنوعی همکاری می‌کرد، گفت که نامه ماه مارس که توسط صدها شخصیت برجسته امضا شده بود، «هیجان‌انگیز هوش مصنوعی بود».

“به طرز شگفت آوری بی طرفانه”

بندر و سایر منتقدان شرکت‌های هوش مصنوعی را به دلیل امتناع از انتشار منابع داده‌هایشان یا افشای نحوه پردازش آن – مشکل به اصطلاح “جعبه سیاه” مورد انتقاد قرار داده‌اند.

در میان انتقادات این است که الگوریتم‌ها می‌توانند بر روی مطالب نژادپرستانه، جنسیت‌گرا یا مغرضانه سیاسی آموزش داده شوند.

سام آلتمن، که در حال حاضر به منظور کمک به شکل دادن به گفتگوی جهانی پیرامون هوش مصنوعی در حال سفر به جهان است، چندین بار به تهدید جهانی ناشی از فناوری در حال توسعه شرکتش اشاره کرده است.

او جمعه گذشته به گروه کوچکی از خبرنگاران در پاریس گفت: «اگر مشکلی در هوش مصنوعی پیش بیاید، هیچ ماسک گازی به شما کمک نمی‌کند.

اما او از امتناع شرکتش از انتشار داده‌های منبع دفاع کرد و گفت که منتقدان واقعاً می‌خواستند بدانند آیا مدل‌ها مغرضانه هستند یا خیر.

او گفت: «نحوه عملکرد آن در آزمون تعصب نژادی چیزی است که در آنجا مهم است.

(به جز عنوان، این داستان توسط کارکنان NDTV ویرایش نشده است و از یک فید سندیکایی منتشر شده است.)