رئیس گوگل در مورد خطرات بالقوه هوش مصنوعی هشدار می دهد – RT World News

هوش مصنوعی (AI) به زودی تأثیر خواهد گذاشت “هر محصول هر شرکت،” ساندار پیچای، مدیر عامل گوگل و آلفابت، روز یکشنبه در مورد خطراتی که این فناوری برای بخش های اشتغال و توزیع اطلاعات نادرست ایجاد می کند، هشدار داد.

“ما باید به عنوان یک جامعه با آن سازگار شویم.” پیچای به شبکه تلویزیونی آمریکایی سی بی اس گفت. وی افزود که رشد شغلی و پایداری برای صنایعی که به آنچه که وی به آن متکی هستند مختل خواهد شد “کارگران دانش” مانند نویسندگان، حسابداران – و حتی مهندسانی که نرم افزار را طراحی کرده اند.

گوگل ماه گذشته “چت ربات” هوش مصنوعی خود را با نام Bard راه اندازی کرد. این به دنبال شروع ChatGPT آنلاین OpenAI در سال 2022 بود که به دلیل توانایی آن در نوشتن مقالات دانشگاهی و نوشتن متن های پیچیده و دقیق از نثر با زبانی شبیه انسان، در میان سایر ابزارها، تبلیغات قابل توجهی دریافت کرد.

با این حال چت ربات های هوش مصنوعی – و به طور خاص ChatGPT – منتقدان خود را داشته اند. اوایل این ماه در ایتالیا به دلیل نگرانی‌های بالقوه حفظ حریم خصوصی ممنوع شد، در حالی که غول‌های فناوری، ایلان ماسک و استیو وزنیاک، همراه با ده‌ها تن از دانشگاهیان خواستار توقف آزمایش‌های هوش مصنوعی شدند. فناوری باید باشد “به شدت توسط کارشناسان مستقل خارجی بازرسی و نظارت شده است،” نامه سرگشاده ای که توسط ماسک و وزنیاک امضا شده بود خوانده شد.


اتحادیه اروپا به دنبال ChatGPT می رود

پیچای نیز نسبت به خطرات احتمالی هوش مصنوعی هشدار داد. انتشار اخبار، فیلم ها و تصاویر جعلی خواهد بود “بسیار بزرگتر،او گفت و “می تواند باعث آسیب شود.” گوگل قبلاً سندی را به صورت آنلاین منتشر کرده بود که خواستار تنظیم این فناوری برای اطمینان از آن شده بود “تراز کردن[s] با ارزش های انسانی از جمله اخلاق.»

او به CBS توضیح داد: این در اختیار یک شرکت نیست که تصمیم بگیرد. به همین دلیل است که من فکر می‌کنم توسعه این نه تنها مهندسان، بلکه دانشمندان علوم اجتماعی، اخلاق‌شناسان، فیلسوفان و غیره را نیز شامل می‌شود.» به گفته پیچای، باقی مانده است “جعبه سیاه” در هوش مصنوعی که ما “کاملا نمی فهمم.”

هم ChatGPT و هم Bard بدون خطا نبوده اند. وقتی از بارد خواسته شد که تورم را به اسکات پلی از CBS توضیح دهد، به او توصیه کرد که پنج کتاب را برای درک بهتر موضوع بخواند که هیچ کدام وجود نداشت. ChatGPT همچنین در برخی از وظایف اصلی شکست خورده است، و گزارش شده است که پاسخ هایی با صدای معقول اما کاملاً نادرست به سؤالات داده است.

شما می توانید این داستان را در شبکه های اجتماعی به اشتراک بگذارید: