پاریس:
گروهی از روسای صنعت و کارشناسان روز سه شنبه هشدار دادند که رهبران جهانی باید برای کاهش “خطر انقراض” ناشی از فناوری هوش مصنوعی تلاش کنند.
یک بیانیه تک خطی که توسط دهها متخصص، از جمله سام آلتمن که شرکت OpenAI او ربات ChatGPT را ایجاد کرد، امضا کرد، گفت که مقابله با خطرات ناشی از هوش مصنوعی باید “یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند همهگیریها و جنگ هستهای” باشد.
ChatGPT در اواخر سال گذشته مورد توجه قرار گرفت و توانایی تولید مقاله، شعر و مکالمه را از کوتاه ترین درخواست ها نشان داد.
موفقیت بینظیر این برنامه با میلیاردها دلار سرمایهگذاری در این زمینه، موجی از هجوم طلا را به همراه داشت، اما منتقدان و افراد داخلی زنگ خطر را به صدا درآوردهاند.
نگرانیهای رایج شامل این احتمال است که چتباتها میتوانند وب را با اطلاعات نادرست پر کنند، الگوریتمهای مغرضانه مواد نژادپرستانه را تولید میکنند، یا اینکه اتوماسیون مبتنی بر هوش مصنوعی میتواند کل صنایع را هدر دهد.
ماشین های فوق هوشمند
آخرین بیانیه که در وب سایت مرکز غیرانتفاعی ایمنی هوش مصنوعی مستقر در ایالات متحده قرار گرفته است، هیچ جزئیاتی از تهدید وجودی بالقوه ناشی از هوش مصنوعی ارائه نکرده است.
این مرکز گفت که “بیانیه مختصر” به منظور باز کردن بحث در مورد خطرات این فناوری است.
چندین امضاکننده، از جمله جفری هینتون، که برخی از فناوریهای زیربنایی سیستمهای هوش مصنوعی را ایجاد کرده و به عنوان یکی از پدرخواندههای این صنعت شناخته میشود، در گذشته هشدارهای مشابهی دادهاند.
بزرگترین نگرانی آنها ظهور به اصطلاح هوش عمومی مصنوعی (AGI) بوده است – مفهومی که برای لحظه ای تعریف نشده است که ماشین ها قادر به انجام عملکردهای گسترده می شوند و می توانند برنامه نویسی خود را توسعه دهند.
ترس این است که انسان ها دیگر کنترلی بر ماشین های فوق هوشمند نداشته باشند، که کارشناسان هشدار داده اند که می تواند عواقب فاجعه باری برای گونه ها و سیاره زمین داشته باشد.
دهها نفر از دانشگاهیان و متخصصان شرکتهایی از جمله گوگل و مایکروسافت – هر دو پیشرو در زمینه هوش مصنوعی – این بیانیه را امضا کردند.
این دو ماه پس از آن صورت میگیرد که ایلان ماسک، رئیس تسلا و صدها نفر دیگر، نامهای سرگشاده صادر کردند و خواستار توقف در توسعه چنین فناوریهایی شدند تا زمانی که ثابت شود ایمن است.
با این حال، نامه آقای ماسک باعث انتقادات گسترده ای شد مبنی بر اینکه هشدارهای وحشتناک در مورد فروپاشی جامعه بسیار اغراق آمیز بوده و اغلب منعکس کننده نکات صحبت تقویت کننده های هوش مصنوعی است.
امیلی بندر، آکادمیک آمریکایی که در مقالهای با نفوذ در انتقاد از هوش مصنوعی همکاری میکرد، گفت که نامه ماه مارس که توسط صدها شخصیت برجسته امضا شده بود، «هیجانانگیز هوش مصنوعی بود».
“به طرز شگفت آوری بی طرفانه”
بندر و سایر منتقدان شرکتهای هوش مصنوعی را به دلیل امتناع از انتشار منابع دادههایشان یا افشای نحوه پردازش آن – مشکل به اصطلاح “جعبه سیاه” مورد انتقاد قرار دادهاند.
در میان انتقادات این است که الگوریتمها میتوانند بر روی مطالب نژادپرستانه، جنسیتگرا یا مغرضانه سیاسی آموزش داده شوند.
سام آلتمن، که در حال حاضر به منظور کمک به شکل دادن به گفتگوی جهانی پیرامون هوش مصنوعی در حال سفر به جهان است، چندین بار به تهدید جهانی ناشی از فناوری در حال توسعه شرکتش اشاره کرده است.
او جمعه گذشته به گروه کوچکی از خبرنگاران در پاریس گفت: «اگر مشکلی در هوش مصنوعی پیش بیاید، هیچ ماسک گازی به شما کمک نمیکند.
اما او از امتناع شرکتش از انتشار دادههای منبع دفاع کرد و گفت که منتقدان واقعاً میخواستند بدانند آیا مدلها مغرضانه هستند یا خیر.
او گفت: «نحوه عملکرد آن در آزمون تعصب نژادی چیزی است که در آنجا مهم است.
(به جز عنوان، این داستان توسط کارکنان NDTV ویرایش نشده است و از یک فید سندیکایی منتشر شده است.)