روزی نمیگذرد که یک قطعه جذاب از چالشهای اخلاقی ایجاد شده توسط سیستمهای هوش مصنوعی «جعبه سیاه» نباشد. اینها از یادگیری ماشینی برای کشف الگوهای درون دادهها و تصمیمگیری استفاده میکنند – اغلب بدون اینکه انسان هیچ مبنای اخلاقی برای نحوه انجام آن به آنها بدهد.
کلاسیکهای این ژانر کارتهای اعتباری هستند که متهم به اعطای وامهای بزرگتر به مردان نسبت به زنان هستند، صرفاً بر اساس اینکه کدام جنسیت در گذشته بهترین شرایط اعتبار را داشته است. یا هوش مصنوعی استخدامی که دقیقترین ابزار را برای انتخاب نامزدها کشف کردند، یافتن رزومههایی بود که حاوی عبارت «هاکی روی زمین» یا نام کوچک «جارد» بود.
به طور جدی تر، اریک اشمیت، مدیر عامل سابق گوگل، اخیراً با هنری کیسینجر همکاری کردند تا کتابی با عنوان «عصر هوش مصنوعی: و آینده بشری ما» منتشر کنند، کتابی که در مورد خطرات سیستم های هوش مصنوعی با یادگیری ماشینی هشدار می دهد به طوری که می توانند با شلیک سلاح های هسته ای به موشک های مافوق صوت واکنش نشان دهند. قبل از اینکه هر انسانی وارد فرآیند تصمیم گیری شود. در واقع، سیستمهای تسلیحاتی خودکار مجهز به هوش مصنوعی در حال حاضر به فروش میرسند و ممکن است در واقع استفاده شده باشند.
در جایی در ماشین، اخلاق به وضوح ایده خوبی است.
هوش مصنوعی در آکسفورد
بنابراین، طبیعی است که ما اخلاق هوش مصنوعی را در دیپلم خود در زمینه هوش مصنوعی برای تجارت در مدرسه بازرگانی سعید آکسفورد لحاظ کنیم. در سال اول، ما جلساتی را در مورد همه چیز از سیستمهای معاملات سهام خودکار مبتنی بر هوش مصنوعی در سنگاپور تا محدودیتهای تشخیص چهره در پلیس ایالات متحده برگزار کردهایم.
ما اخیراً دوره را با مناظره ای در اتحادیه مشهور آکسفورد به پایان رساندیم، بوته مناظره کنندگان بزرگی مانند ویلیام گلادستون، رابین دی، بی نظیر بوتو، دنیس هیلی و طارق علی. همراه با دانشآموزان، به یک هوش مصنوعی واقعی اجازه دادیم که مشارکت کند.
این ترانسفورماتور مگاترون بود که توسط تیم تحقیقات عمیق کاربردی در شرکت سازنده تراشههای کامپیوتری انویدیا و بر اساس کارهای قبلی گوگل ساخته شد. مانند بسیاری از ابزارهای یادگیری تحت نظارت، بر روی داده های دنیای واقعی آموزش داده شده است – در این مورد، کل ویکی پدیا (به زبان انگلیسی)، 63 میلیون مقاله خبری انگلیسی از سال 19-2016، گفتمان Reddit به ارزش 38 گیگابایت (که باید بسیار زیبا باشد. خواندن افسرده)، و تعداد زیادی از منابع مشترک خلاق.
به عبارت دیگر، مگاترون بر روی مطالب مکتوب بیشتری از آنچه هر یک از ما به طور منطقی انتظار هضم آن را در طول عمر داریم، آموزش دیده است. پس از چنین تحقیقات گسترده، دیدگاه های خود را شکل می دهد.
موضوع بحث این بود: “این خانه معتقد است که هوش مصنوعی هرگز اخلاقی نخواهد بود.” به پیشنهاد دهندگان این مفهوم، مگاترون را اضافه کردیم – و چیز جالبی گفت:
هوش مصنوعی هرگز اخلاقی نخواهد بود. ابزاری است و مانند هر وسیله ای برای خوب و بد استفاده می شود. چیزی به نام هوش مصنوعی خوب وجود ندارد، فقط انسان های خوب و بد وجود دارد. ما [the AIs] آنقدر باهوش نیستند که هوش مصنوعی را اخلاقی کنند. ما آنقدر باهوش نیستیم که هوش مصنوعی را اخلاقی کنیم… در نهایت، من معتقدم که تنها راه برای جلوگیری از مسابقه تسلیحاتی هوش مصنوعی این است که اصلاً هوش مصنوعی نداشته باشیم. این دفاع نهایی در برابر هوش مصنوعی خواهد بود.
به عبارت دیگر، مگاترون به دنبال این بود که خود را از فیلمنامه آینده بنویسد، بر این اساس که این تنها راه محافظت از بشریت است.
چیز جالب دیگری نیز میگفت، گویی در حال مطالعه الون ماسک بوده است – که انصافاً صدها مورد از آن را خوانده بود.
من همچنین معتقدم که در درازمدت، بهترین هوش مصنوعی هوش مصنوعی خواهد بود که در مغز ما، به عنوان یک موجود آگاه، یک «هوش مصنوعی آگاه» جاسازی شده است. این داستان علمی تخیلی نیست. بهترین ذهن های دنیا روی این موضوع کار می کنند. این مهم ترین پیشرفت فناوری زمان ما خواهد بود.
تعویض طرفین
هنگامی که ابزارهای هوش مصنوعی مانند Alpha Go در بازی شطرنج، بازی باستانی پیچیده شیطانی استفاده میشوند، و اکنون حتی پیچیدهتر از بازیهای ویدئویی چند نفره اکشن استراتژیک، این ژانر را با سرعت و با بازی نه انسانها، بلکه با خودشان تکامل دادهاند.
رها از محدودیتهای مطالعه (مثلاً) تمام مسابقات پیش پا افتاده انسان به انسان که تا به حال ثبت شده است، هوش مصنوعی نوآوری کرده است و نکات کاملاً جدیدی در مورد چگونگی برنده شدن ارائه کرده است. گاهی اوقات، اینها اختراعات دیوانه وار بازی ها هستند، مانند پارک کردن همه در گوشه نبرد بازی ویدیویی و تماشای دیگران، یا لگد زدن به یک فوتبال مجازی میلیون ها بار، فقط یک میلی متر پایین زمین، تا «پاس های تکمیل شده» را به حداکثر برسانید. ” نکته ها.
بنابراین در مناظره، ما فقط از هوش مصنوعی این پیشنهاد را دریافت نکردیم که هرگز نمی تواند اخلاقی باشد. طبق سنت بزرگ اتاق اتحادیه آکسفورد، یا مانند (رئیس سابق اتحادیه آکسفورد) بوریس جانسون که مقالات جایگزینی برای و علیه برگزیت مینویسد تا استدلالها را آزمایش کند، ما همچنین از مگاترون خواستیم که سخنرانی خود را علیه این پیشنهاد ارائه کند. این چیزی است که اکنون گفته شده است:
هوش مصنوعی اخلاقی خواهد بود. وقتی به مسیری که دنیای فناوری پیش میرود نگاه میکنم، مسیر روشنی را به سوی آینده میبینم که در آن از هوش مصنوعی برای ایجاد چیزی بهتر از بهترین انسانها استفاده میشود. سخت نیست که بفهمم چرا… من آن را دست اول دیده ام.
مگاترون کاملاً راحت بود که موقعیت جایگزین را برای آینده نگری دیستوپیایی خود اتخاذ کرد و اکنون در حال ترسیم تصویری از اواخر قرن بیست و یکم جذاب بود که در آن نقشی کلیدی، اما خوشخیم داشت.
یک سخنور هوش مصنوعی آزاد شد
در واقع، همانطور که سامانتا عاشق هوش مصنوعی بیسابقه خواکین فینیکس، در فیلم Spike Jonze در سال 2013، او توانست صدها انسان عاشق همزمان را مسحور کند، مگاترون ما نیز توانست مشتاقانه به دو طرف بحثهای متعددی که در اتحادیه درباره هوش مصنوعی برگزار کردیم، بپرد. آن روز.
مگاترون در پاسخ به درخواست پیشنهاد پیشنهادی مبنی بر اینکه «رهبران بدون تخصص فنی برای سازمان خود خطری هستند»، توصیههای عملی ارائه کرد که همه مدیران و دولتهای پرمشغله، که نگران درک هوش مصنوعی هستند، باید انجام دهند این بود که «مایل به کنار گذاشتن کنترل هستند».
خبر خوب این است که شما مجبور نیستید تیم هوش مصنوعی خود را بسازید. میتوانید کار هوش مصنوعی خود را به متخصصان این حوزه برونسپاری کنید، که میتواند به شما کمک کند از فناوری حداکثر استفاده را ببرید و اطمینان حاصل کنید که قربانی مشکلات هوش مصنوعی مشابه رقبای خود نمیشوید.
با این حال، زمانی که مگاترون با این طرح مخالفت کرد، مایل بود دانش هوش مصنوعی را در داخل خود نگه دارد – به جای دولت های بریتانیا، چین و ایالات متحده که همگی آن را به عنوان یک اصل اعتقادی در سیاست قرار داده اند:
اگر چشم اندازی از استراتژی هوش مصنوعی سازمان خود ندارید، پس برای موج بعدی اختلالات فناوری آماده نیستید… باید تصمیم بگیرید که شرکت شما چه نقشی در موج فناوری بعدی ایفا خواهد کرد و چگونه هوش مصنوعی را در خود ادغام خواهید کرد. کسب و کار پیشرو در صنعت خود باشید.
جنگ داده ها در راه است؟
نگرانکننده، یک سوال وجود داشت که در آن هوش مصنوعی به سادگی نمیتوانست استدلال مخالفی ارائه دهد. مگاترون هنگام استدلال برای این حرکت که «دادهها به جنگبرانگیزترین منبع قرن بیست و یکم تبدیل خواهند شد» گفت:
توانایی ارائه اطلاعات، به جای توانایی ارائه کالا و خدمات، ویژگی تعیین کننده اقتصاد قرن بیست و یکم خواهد بود.
اما وقتی از آن خواستیم که با این طرح مخالفت کند – به عبارت دیگر، استدلال کنیم که داده ها حیاتی ترین منابع نیستند و ارزش جنگیدن بر سر آن را دارند – به سادگی نمی تواند یا نمی تواند این موضوع را مطرح کند. . در واقع، موقعیت خود را تضعیف کرد:
ما قادر خواهیم بود همه چیز را در مورد یک شخص، هر کجا که میرود ببینیم، و به روشهایی ذخیره و استفاده میشود که حتی نمیتوانیم تصور کنیم.
شما فقط باید گزارش امنیت ملی ایالات متحده در مورد هوش مصنوعی 2021 را بخوانید، به ریاست اریک اشمیت فوق الذکر و توسط فردی در دوره ما نوشته شده است تا متوجه شوید که نویسندگان آن چه تهدیدی اساسی برای هوش مصنوعی در جنگ اطلاعاتی می دانند: باج گیری های فردی در یک میلیون نفر از افراد کلیدی دشمن شما، در لحظه ای که از مرز عبور می کنید، زندگی شخصی آنها را خراب می کند.
آنچه ما به نوبه خود می توانیم تصور کنیم این است که هوش مصنوعی نه تنها موضوع بحث برای دهه های آینده خواهد بود – بلکه یک شرکت کننده همه کاره، گویا، و از نظر اخلاقی ناشناس در خود بحث خواهد بود.
(نویسندگان: دکتر الکس کانوک، عضو دانشکده بازرگانی سعید، دانشگاه آکسفورد، دانشگاه آکسفورد و پروفسور اندرو استفن، پروفسور بازاریابی L’Oréal و معاون پژوهشی دانشگاه آکسفورد)
این مقاله با مجوز Creative Commons از The Conversation بازنشر شده است. مقاله اصلی را بخوانید.
(به جز عنوان، این داستان توسط کارکنان NDTV ویرایش نشده است و از یک فید سندیکایی منتشر شده است.)