کارمندان Google سعی کردند جلوی عرضه رقیب СhatGPT – رسانه – اخبار RT World را بگیرند

دو بازبین هوش مصنوعی تلاش کردند تا زنگ خطری را به صدا درآورند که بارد ادعاهای نادرست و مضر منتشر می کند

دو کارمند در دپارتمان نوآوری مسئول گوگل تلاش کردند و نتوانستند از انتشار ربات چت هوش مصنوعی Bard خود در ماه گذشته جلوگیری کنند و هشدار دادند که در معرض خطر است. “اظهارات نادرست و خطرناک” نیویورک تایمز روز جمعه به نقل از منابع آگاه با این روند فاش کرد.

وقتی وکیل ارشد گوگل با مدیران تحقیقاتی و ایمنی ملاقات کرد تا به آنها اطلاع دهد که این شرکت هوش مصنوعی را بر هر چیز دیگری اولویت دارد، بازبینان نگران محصول قبلاً به مشکلاتی در مورد مدل‌های زبان بزرگ هوش مصنوعی مانند Bard و رقیب اصلی آن ChatGPT اشاره کرده بودند.

نگرانی این زوج در مورد تولید اطلاعات نادرست توسط ربات چت، آسیب رساندن به کاربرانی که از نظر عاطفی وابسته شده‌اند، یا حتی منتشر می‌کند. “خشونت تسهیل شده توسط فناوری” منابع ادعا کردند که از طریق آزار و اذیت جمعی مصنوعی متعاقباً توسط جن گنای ناظر نوآوری مسئول کم اهمیت جلوه داده شد. در حالی که بازبینان از گوگل خواسته بودند قبل از انتشار Bard منتظر بماند، ظاهراً Gennai گزارش خود را ویرایش کرد تا آن توصیه را به طور کامل حذف کند.


آیا انسان ها به توسعه ماشین های خود تبدیل خواهند شد؟  ChatGPT ممکن است عواقب جبران ناپذیری برای یادگیری و تصمیم گیری داشته باشد

Gennai از اقدامات خود برای تایمز دفاع کرد و اشاره کرد که داوران قرار نبود نظرات خود را در مورد ادامه دادن به اشتراک بگذارند، زیرا بارد فقط یک آزمایش بود. او ادعا کرد که گزارش را بهبود بخشیده است «فرض‌های نادرست را تصحیح کرد و در واقع خطرات و آسیب‌های بیشتری را اضافه کرد که نیاز به بررسی داشت.» او اصرار داشت که این محصول نهایی را ایمن تر می کند.

گوگل تصمیم Gennai را برای انتشار Bard به عنوان یک اعتبار می داند “آزمایش محدود” اما ربات چت همچنان قرار است به طور کامل در موتور جستجوی بازار گوگل ادغام شود “به زودی،” با توجه به وب سایت خود گوگل.

گوگل قبلاً شورش کارمندان در مورد موضوع هوش مصنوعی را خنثی کرده است. سال گذشته، بلیک لمواین را پس از اینکه ادعا کرد که LaMDA سلف بارد (مدل زبانی برای برنامه‌های گفتگو) حساس شده است، اخراج شد، در حالی که محقق ال مهدی المحمدی پس از اینکه شرکت او را از انتشار هشدار کاغذی درباره آسیب‌پذیری‌های امنیت سایبری در مدل‌های زبانی بزرگ منع کرد، استعفا داد. بارد در سال 2020، تیمنیت گبرو، محقق هوش مصنوعی، پس از انتشار تحقیقاتی که گوگل را به احتیاط کافی در توسعه هوش مصنوعی متهم می‌کرد، رها شد.

با این حال، گروه رو به رشدی از محققان هوش مصنوعی، مدیران فناوری، و دیگر آینده پژوهان تأثیرگذار، در برابر این حرکت سریع سنجیده اند. “پیش رفتن” گوگل و رقبای آن در مایکروسافت و سازنده ChatGPT OpenAI تا زمانی که بتوان حفاظت موثری بر این فناوری اعمال کرد. نامه سرگشاده اخیر که خواستار توقف شش ماهه شده است آزمایش های غول پیکر هوش مصنوعی هزاران امضاکننده از جمله ایلان ماسک، بنیانگذار OpenAI و استیو وزنیاک، بنیانگذار اپل را به خود جلب کرد.

پتانسیل این فناوری برای متحول کردن جامعه از طریق منسوخ کردن بسیاری از مشاغل انسانی (یا خود انسان ها) در هشدارهای بسیاری از کارشناسان نقش اساسی دارد، اگرچه خطرات کمتری مانند نقض داده ها – که قبلاً در OpenAI رخ داده است – نیز مکرراً ذکر می شود.

شما می توانید این داستان را در شبکه های اجتماعی به اشتراک بگذارید: