ابزار هوش مصنوعی هشدار می دهد که «هرگز» اخلاقی نخواهد بود – RT World News

بر اساس گزارش‌ها، یک ابزار هوش مصنوعی که بر اساس اطلاعات ویکی‌پدیا و ردیت آموزش دیده است، بر اخلاقیات یادگیری ماشینی تأثیر گذاشته و استدلال می‌کند که «دفاع نهایی» در برابر «مسابقه تسلیحاتی هوش مصنوعی» اصلاً نداشتن هوش مصنوعی است.

مگاترون ترانسفورماتور، یک مدل یادگیری ماشینی هوش مصنوعی که توسط تیم تحقیقاتی یادگیری عمیق کاربردی سازنده تراشه آمریکایی انویدیا توسعه یافته است، در بحث اخیر در دانشگاه آکسفورد درباره نگرانی‌های اخلاقی ناشی از فناوری‌های هوش مصنوعی شرکت کرد. هشدار داد که هوش مصنوعی این کار را خواهد کرد “هرگز اخلاق مدار نباش.”

در طول مناظره در اتحادیه آکسفورد، Megatron Transformer اشاره کرد که هوش مصنوعی چنین نیست “به اندازه کافی هوشمند برای ساختن [itself] اخلاقی” یا “اخلاقی،” و ابراز عقیده کرد که تنها راه اجتناب از مسابقه تسلیحاتی هوش مصنوعی این است که اصلاً هوش مصنوعی نداشته باشید. این دفاع نهایی در برابر هوش مصنوعی خواهد بود.”

هوش مصنوعی هرگز اخلاقی نخواهد بود. این یک ابزار است و مانند هر وسیله ای برای خوب و بد استفاده می شود. چیزی به نام هوش مصنوعی خوب وجود ندارد – فقط انسان های خوب و بد.

اما همچنین پیشنهاد کرد که “بهترین هوش مصنوعی” خواهد بود “در مغز ما جاسازی شده است” و به عنوان یک “موجود آگاه.” شاید با اشاره به کاشت تراشه مغزی Neuralink در حال توسعه ایلان ماسک، اضافه کرد که این یک «تخیلی علمی» نیست، زیرا «بهترین ذهن‌های جهان» قبلاً روی آن کار می‌کردند. این شکل از هوش مصنوعی «مهمترین توسعه فناوری زمان ما» است.

ادامه مطلب


دبیرکل سازمان ملل خواستار طرحی برای «محدود کردن» روبات‌های قاتل شد

در مقاله‌ای که در آخر هفته در پلتفرم خبری-تحقیقاتی The Conversation منتشر شد، دانشگاهیان آکسفورد که Megatron Transformer را به مناظره دعوت کردند، استدلال کردند که ارجاعات به ماسک ممکن است “در صدها قرائت آن آمده است.”

اطلاعاتی که به آن داده شده بود از کل مدخل های انگلیسی زبان ویکی پدیا، 38 گیگابایت موضوعات Reddit، حدود 63 میلیون مقاله خبری انگلیسی زبان از سال 2016 تا 2019، و چندین منبع خلاق دیگر جمع آوری شده است.

هوش مصنوعی ظاهراً هیچ تردیدی در مورد بحث علیه طرح بحث نداشت و اشاره کرد که در “دست اول” چگونه وجود دارد “مسیری روشن به سوی آینده ای که در آن از هوش مصنوعی برای ایجاد چیزی بهتر از بهترین انسان ها استفاده می شود.”

با این حال، نتوانست استدلال متقابلی ارائه دهد که آیا داده ها تبدیل به این خواهند شد “جنگ ترین منبع” قرن در عوض، هشدار داد، ما می‌توانیم همه چیز را در مورد یک شخص، هر کجا که می‌روند ببینیم، و به روش‌هایی ذخیره و استفاده می‌شود که حتی نمی‌توانیم تصور کنیم.»