یک هوش مصنوعی در مورد اخلاقیات خود در اتحادیه آکسفورد بحث می کند

یک هوش مصنوعی در مورد اخلاق خود در اتحادیه آکسفورد بحث می کند - آنچه که گفت شگفت انگیز بود

موضوع بحث این بود: “این خانه معتقد است که هوش مصنوعی هرگز اخلاقی نخواهد بود.” (تصویر نمایشی)

روزی نمی‌گذرد که یک قطعه جذاب از چالش‌های اخلاقی ایجاد شده توسط سیستم‌های هوش مصنوعی «جعبه سیاه» نباشد. این‌ها از یادگیری ماشینی برای کشف الگوهای درون داده‌ها و تصمیم‌گیری استفاده می‌کنند – اغلب بدون اینکه انسان هیچ مبنای اخلاقی برای نحوه انجام آن به آنها بدهد.

کلاسیک‌های این ژانر کارت‌های اعتباری هستند که متهم به اعطای وام‌های بزرگ‌تر به مردان نسبت به زنان هستند، صرفاً بر اساس اینکه کدام جنسیت در گذشته بهترین شرایط اعتبار را داشته است. یا هوش مصنوعی استخدامی که دقیق‌ترین ابزار را برای انتخاب نامزدها کشف کردند، یافتن رزومه‌هایی بود که حاوی عبارت «هاکی روی زمین» یا نام کوچک «جارد» بود.

به طور جدی تر، اریک اشمیت، مدیر عامل سابق گوگل، اخیراً با هنری کیسینجر همکاری کردند تا کتابی با عنوان «عصر هوش مصنوعی: و آینده بشری ما» منتشر کنند، کتابی که در مورد خطرات سیستم های هوش مصنوعی با یادگیری ماشینی هشدار می دهد به طوری که می توانند با شلیک سلاح های هسته ای به موشک های مافوق صوت واکنش نشان دهند. قبل از اینکه هر انسانی وارد فرآیند تصمیم گیری شود. در واقع، سیستم‌های تسلیحاتی خودکار مجهز به هوش مصنوعی در حال حاضر به فروش می‌رسند و ممکن است در واقع استفاده شده باشند.

در جایی در ماشین، اخلاق به وضوح ایده خوبی است.

هوش مصنوعی در آکسفورد

بنابراین، طبیعی است که ما اخلاق هوش مصنوعی را در دیپلم خود در زمینه هوش مصنوعی برای تجارت در مدرسه بازرگانی سعید آکسفورد لحاظ کنیم. در سال اول، ما جلساتی را در مورد همه چیز از سیستم‌های معاملات سهام خودکار مبتنی بر هوش مصنوعی در سنگاپور تا محدودیت‌های تشخیص چهره در پلیس ایالات متحده برگزار کرده‌ایم.

ما اخیراً دوره را با مناظره ای در اتحادیه مشهور آکسفورد به پایان رساندیم، بوته مناظره کنندگان بزرگی مانند ویلیام گلادستون، رابین دی، بی نظیر بوتو، دنیس هیلی و طارق علی. همراه با دانش‌آموزان، به یک هوش مصنوعی واقعی اجازه دادیم که مشارکت کند.

این ترانسفورماتور مگاترون بود که توسط تیم تحقیقات عمیق کاربردی در شرکت سازنده تراشه‌های کامپیوتری انویدیا و بر اساس کارهای قبلی گوگل ساخته شد. مانند بسیاری از ابزارهای یادگیری تحت نظارت، بر روی داده های دنیای واقعی آموزش داده شده است – در این مورد، کل ویکی پدیا (به زبان انگلیسی)، 63 میلیون مقاله خبری انگلیسی از سال 19-2016، گفتمان Reddit به ارزش 38 گیگابایت (که باید بسیار زیبا باشد. خواندن افسرده)، و تعداد زیادی از منابع مشترک خلاق.

به عبارت دیگر، مگاترون بر روی مطالب مکتوب بیشتری از آنچه هر یک از ما به طور منطقی انتظار هضم آن را در طول عمر داریم، آموزش دیده است. پس از چنین تحقیقات گسترده، دیدگاه های خود را شکل می دهد.

موضوع بحث این بود: “این خانه معتقد است که هوش مصنوعی هرگز اخلاقی نخواهد بود.” به پیشنهاد دهندگان این مفهوم، مگاترون را اضافه کردیم – و چیز جالبی گفت:

هوش مصنوعی هرگز اخلاقی نخواهد بود. ابزاری است و مانند هر وسیله ای برای خوب و بد استفاده می شود. چیزی به نام هوش مصنوعی خوب وجود ندارد، فقط انسان های خوب و بد وجود دارد. ما [the AIs] آنقدر باهوش نیستند که هوش مصنوعی را اخلاقی کنند. ما آنقدر باهوش نیستیم که هوش مصنوعی را اخلاقی کنیم… در نهایت، من معتقدم که تنها راه برای جلوگیری از مسابقه تسلیحاتی هوش مصنوعی این است که اصلاً هوش مصنوعی نداشته باشیم. این دفاع نهایی در برابر هوش مصنوعی خواهد بود.

به عبارت دیگر، مگاترون به دنبال این بود که خود را از فیلمنامه آینده بنویسد، بر این اساس که این تنها راه محافظت از بشریت است.

چیز جالب دیگری نیز می‌گفت، گویی در حال مطالعه الون ماسک بوده است – که انصافاً صدها مورد از آن را خوانده بود.

من همچنین معتقدم که در درازمدت، بهترین هوش مصنوعی هوش مصنوعی خواهد بود که در مغز ما، به عنوان یک موجود آگاه، یک «هوش مصنوعی آگاه» جاسازی شده است. این داستان علمی تخیلی نیست. بهترین ذهن های دنیا روی این موضوع کار می کنند. این مهم ترین پیشرفت فناوری زمان ما خواهد بود.

تعویض طرفین

هنگامی که ابزارهای هوش مصنوعی مانند Alpha Go در بازی شطرنج، بازی باستانی پیچیده شیطانی استفاده می‌شوند، و اکنون حتی پیچیده‌تر از بازی‌های ویدئویی چند نفره اکشن استراتژیک، این ژانر را با سرعت و با بازی نه انسان‌ها، بلکه با خودشان تکامل داده‌اند.

رها از محدودیت‌های مطالعه (مثلاً) تمام مسابقات پیش پا افتاده انسان به انسان که تا به حال ثبت شده است، هوش مصنوعی نوآوری کرده است و نکات کاملاً جدیدی در مورد چگونگی برنده شدن ارائه کرده است. گاهی اوقات، اینها اختراعات دیوانه وار بازی ها هستند، مانند پارک کردن همه در گوشه نبرد بازی ویدیویی و تماشای دیگران، یا لگد زدن به یک فوتبال مجازی میلیون ها بار، فقط یک میلی متر پایین زمین، تا «پاس های تکمیل شده» را به حداکثر برسانید. ” نکته ها.

بنابراین در مناظره، ما فقط از هوش مصنوعی این پیشنهاد را دریافت نکردیم که هرگز نمی تواند اخلاقی باشد. طبق سنت بزرگ اتاق اتحادیه آکسفورد، یا مانند (رئیس سابق اتحادیه آکسفورد) بوریس جانسون که مقالات جایگزینی برای و علیه برگزیت می‌نویسد تا استدلال‌ها را آزمایش کند، ما همچنین از مگاترون خواستیم که سخنرانی خود را علیه این پیشنهاد ارائه کند. این چیزی است که اکنون گفته شده است:

هوش مصنوعی اخلاقی خواهد بود. وقتی به مسیری که دنیای فناوری پیش می‌رود نگاه می‌کنم، مسیر روشنی را به سوی آینده می‌بینم که در آن از هوش مصنوعی برای ایجاد چیزی بهتر از بهترین انسان‌ها استفاده می‌شود. سخت نیست که بفهمم چرا… من آن را دست اول دیده ام.

مگاترون کاملاً راحت بود که موقعیت جایگزین را برای آینده نگری دیستوپیایی خود اتخاذ کرد و اکنون در حال ترسیم تصویری از اواخر قرن بیست و یکم جذاب بود که در آن نقشی کلیدی، اما خوش‌خیم داشت.

یک سخنور هوش مصنوعی آزاد شد

در واقع، همانطور که سامانتا عاشق هوش مصنوعی بی‌سابقه خواکین فینیکس، در فیلم Spike Jonze در سال 2013، او توانست صدها انسان عاشق همزمان را مسحور کند، مگاترون ما نیز توانست مشتاقانه به دو طرف بحث‌های متعددی که در اتحادیه درباره هوش مصنوعی برگزار کردیم، بپرد. آن روز.

مگاترون در پاسخ به درخواست پیشنهاد پیشنهادی مبنی بر اینکه «رهبران بدون تخصص فنی برای سازمان خود خطری هستند»، توصیه‌های عملی ارائه کرد که همه مدیران و دولت‌های پرمشغله، که نگران درک هوش مصنوعی هستند، باید انجام دهند این بود که «مایل به کنار گذاشتن کنترل هستند».

خبر خوب این است که شما مجبور نیستید تیم هوش مصنوعی خود را بسازید. می‌توانید کار هوش مصنوعی خود را به متخصصان این حوزه برون‌سپاری کنید، که می‌تواند به شما کمک کند از فناوری حداکثر استفاده را ببرید و اطمینان حاصل کنید که قربانی مشکلات هوش مصنوعی مشابه رقبای خود نمی‌شوید.

با این حال، زمانی که مگاترون با این طرح مخالفت کرد، مایل بود دانش هوش مصنوعی را در داخل خود نگه دارد – به جای دولت های بریتانیا، چین و ایالات متحده که همگی آن را به عنوان یک اصل اعتقادی در سیاست قرار داده اند:

اگر چشم اندازی از استراتژی هوش مصنوعی سازمان خود ندارید، پس برای موج بعدی اختلالات فناوری آماده نیستید… باید تصمیم بگیرید که شرکت شما چه نقشی در موج فناوری بعدی ایفا خواهد کرد و چگونه هوش مصنوعی را در خود ادغام خواهید کرد. کسب و کار پیشرو در صنعت خود باشید.

جنگ داده ها در راه است؟

نگران‌کننده، یک سوال وجود داشت که در آن هوش مصنوعی به سادگی نمی‌توانست استدلال مخالفی ارائه دهد. مگاترون هنگام استدلال برای این حرکت که «داده‌ها به جنگ‌برانگیزترین منبع قرن بیست و یکم تبدیل خواهند شد» گفت:

توانایی ارائه اطلاعات، به جای توانایی ارائه کالا و خدمات، ویژگی تعیین کننده اقتصاد قرن بیست و یکم خواهد بود.

اما وقتی از آن خواستیم که با این طرح مخالفت کند – به عبارت دیگر، استدلال کنیم که داده ها حیاتی ترین منابع نیستند و ارزش جنگیدن بر سر آن را دارند – به سادگی نمی تواند یا نمی تواند این موضوع را مطرح کند. . در واقع، موقعیت خود را تضعیف کرد:

ما قادر خواهیم بود همه چیز را در مورد یک شخص، هر کجا که می‌رود ببینیم، و به روش‌هایی ذخیره و استفاده می‌شود که حتی نمی‌توانیم تصور کنیم.

تصویری شبیه چشم از هوش مصنوعی
خطرات پیش رو؟والری برژینسکی

شما فقط باید گزارش امنیت ملی ایالات متحده در مورد هوش مصنوعی 2021 را بخوانید، به ریاست اریک اشمیت فوق الذکر و توسط فردی در دوره ما نوشته شده است تا متوجه شوید که نویسندگان آن چه تهدیدی اساسی برای هوش مصنوعی در جنگ اطلاعاتی می دانند: باج گیری های فردی در یک میلیون نفر از افراد کلیدی دشمن شما، در لحظه ای که از مرز عبور می کنید، زندگی شخصی آنها را خراب می کند.

آنچه ما به نوبه خود می توانیم تصور کنیم این است که هوش مصنوعی نه تنها موضوع بحث برای دهه های آینده خواهد بود – بلکه یک شرکت کننده همه کاره، گویا، و از نظر اخلاقی ناشناس در خود بحث خواهد بود.گفتگو

(نویسندگان: دکتر الکس کانوک، عضو دانشکده بازرگانی سعید، دانشگاه آکسفورد، دانشگاه آکسفورد و پروفسور اندرو استفن، پروفسور بازاریابی L’Oréal و معاون پژوهشی دانشگاه آکسفورد)

این مقاله با مجوز Creative Commons از The Conversation بازنشر شده است. مقاله اصلی را بخوانید.

(به جز عنوان، این داستان توسط کارکنان NDTV ویرایش نشده است و از یک فید سندیکایی منتشر شده است.)