لایحه ای دو حزبی در کنگره خواستار ممنوعیت استفاده از هوش مصنوعی برای استقرار کلاهک ها شده است
قانونگذاران مجلس نمایندگان و سنای ایالات متحده زنگ خطر را در مورد استفاده بالقوه از هوش مصنوعی در زرادخانه هسته ای آمریکا به صدا درآورده اند و استدلال می کنند که این فناوری نباید در موقعیتی قرار گیرد که به تنهایی کلاهک ها را شلیک کند.
گروهی متشکل از سه دموکرات و یک جمهوریخواه لایحهای را ارائه کردند که خواستار ممنوعیت استفاده از هوش مصنوعی بهگونهای است که میتواند منجر به استقرار سلاحهای هستهای شود. در صورت تصویب، این قانون یک سیاست فعلی پنتاگون را تدوین میکند که به یک انسان نیاز دارد “در حلقه” در مورد هر تصمیم راه اندازی
ما میخواهیم مطمئن شویم که اگر در هر زمانی نیاز به پرتاب سلاح هستهای داشته باشیم، یک انسان در فرآیند پرتاب سلاح هستهای وجود دارد. کن باک، نماینده ایالات متحده، جمهوریخواه کلرادو، روز جمعه در مصاحبه با فاکس نیوز گفت. بنابراین شما فیلمهای علمی تخیلی میبینید، و دنیا از کنترل خارج شده است، زیرا هوش مصنوعی تحت کنترل است – ما در این فرآیند انسانهایی خواهیم داشت.»
هوش مصنوعی توانمند نظامی به سرعت در حال توسعه است. از همین رو @tedlieu و من لایحهای را ارائه کردم که هوش مصنوعی را از پرتاب سلاحهای هستهای منع میکرد. همانطور که گفتم @billhemmer، ما می خواهیم مطمئن شویم که اگر در آن موقعیت قرار بگیریم، یک زنجیره انسانی از فرماندهی وجود دارد. pic.twitter.com/9S5mAWXlW6
— نماینده کن باک (@RepKenBuck) 28 آوریل 2023
باک به نمایش هالیوود از یک سناریوی کابوس اشاره کرد که در آن سیستمهای هوش مصنوعی کنترل سلاحهای هستهای را به دست میآورند، همانطور که در فیلمهایی مانند «WarGames» و «Colossus: The Forbidden Project» به تصویر کشیده شده است. او هشدار داد که استفاده از هوش مصنوعی بدون زنجیره فرماندهی انسانی خواهد بود “بی پروا” و “خطرناک.”
نماینده تد لیو موافقت کرد و گفت: هوش مصنوعی شگفت انگیز است. از طرق مختلف به جامعه کمک خواهد کرد. همچنین می تواند ما را بکشد.» لیو، یک دموکرات کالیفرنیا، همراه با دو دموکرات دیگر – نماینده دان بیر از ویرجینیا و سناتور ادوارد مارکی از ماساچوست، یکی از حامیان اصلی قانون هوش مصنوعی است.
اگرچه ایده یک جنگ هستهای برانگیخته شده با هوش مصنوعی ممکن است در گذشته به عنوان یک داستان علمی تخیلی رد شده باشد، بسیاری از دانشمندان معتقدند که این دیگر یک خطر دور از ذهن نیست. یک نظرسنجی که اوایل ماه جاری توسط موسسه هوش مصنوعی انسان محور استنفورد منتشر شد، نشان داد که 36 درصد از محققان هوش مصنوعی موافق بودند که این فناوری میتواند باعث “فاجعه در سطح هسته ای.”
فرماندهی مرکزی ایالات متحده (CENTCOM) هفته گذشته از استخدام یک مدیر سابق گوگل به عنوان اولین مشاور هوش مصنوعی خود خبر داد. پنتاگون از کنگره درخواست 1.8 میلیارد دلار بودجه برای تحقیقات هوش مصنوعی در سال مالی آینده خود کرده است.
شما می توانید این داستان را در شبکه های اجتماعی به اشتراک بگذارید: