پروفسور حقوق آمریکا مدعی شد چت بات هوش مصنوعی او را به تجاوز جنسی متهم کرده است

پروفسور در وبلاگ خود به مشکلات دقت و قابلیت اطمینان چت ربات های هوش مصنوعی اشاره کرد.

ربات چت OpenAI ChatGPT به دروغ یک استاد حقوق ایالات متحده را با گنجاندن او در لیستی از محققان حقوقی که شخصی را مورد آزار جنسی قرار داده بودند، متهم کرد. در مجموعه ای از پست های توییتری، پروفسور جاناتان تورلی از دانشگاه جورج واشنگتن ادعا کرد که توسط ChatGPT به دروغ متهم به حمله به دانش آموزان در سفری شده است که «هرگز» در حالی که در مدرسه ای که «هرگز در آن تدریس نکرده است» کار می کرد.

“ChapGPT بر یک مورد استناد شده است پست آقای تورلی نوشت: مقاله ای که هرگز نوشته نشده و بیانیه ای را نقل می کند که هرگز توسط روزنامه مطرح نشده است.

به طور جداگانه، در یک پست وبلاگی، پروفسور ادعا کرد که به عنوان بخشی از یک مطالعه، گزارش شده است که یک وکیل از چت ربات هوش مصنوعی خواسته است تا لیستی از دانشمندان حقوقی که مرتکب آزار جنسی شده اند تهیه کند. ChatGPT فهرستی شامل نام آقای تورلی را بازگرداند و به دروغ او را به اظهار نظرهای تلقین آمیز جنسی و تلاش برای لمس دانش آموزی در طول سفر کلاسی به آلاسکا، با استناد به مقاله ساختگی در پست که گفته شده مربوط به سال 2018 است.

آقای تورلی خاطرنشان کرد که چنین مقاله ای وجود ندارد، چیزی که توسط آن تکرار شده است پست همچنین. آنچه که بسیار قابل توجه است این است که این اتهام نادرست فقط توسط هوش مصنوعی ایجاد نشده است، بلکه ظاهرا بر اساس پست آقای تورلی گفت: مقاله ای که هرگز وجود نداشت.

او در وبلاگ خود نوشت: “هنگامی که برای اولین بار با من تماس گرفتم، این اتهام را خنده دار یافتم. پس از مدتی تأمل، معنای تهدیدآمیزتری به خود گرفت.”

همچنین بخوانید | پست دکتر درباره حقوق ماهانه او 16 سال پس از ویروسی شدن MBBS

علاوه بر این، پروفسور همچنین برخی از مسائل مربوط به دقت و قابلیت اطمینان در چت ربات‌های هوش مصنوعی مانند ChatGPT را برجسته کرد. دیروز، جو بایدن، رئیس جمهور آمریکا اعلام کرد که باید دید که آیا هوش مصنوعی (AI) خطرناک است یا خیر. او در توییتی نوشت: «شما می‌توانید توسط هوش مصنوعی بدنام شوید و این شرکت‌ها صرفاً شانه خالی می‌کنند که سعی می‌کنند دقیق باشند.

آقای ترولی همچنین خاطرنشان کرد که ChatGPT تنها رباتی نبود که این ادعای نادرست را مطرح کرد. به گفته وی، بینگ چت بات مایکروسافت نیز این ادعاهای بی اساس را تکرار کرد.

مشخص نیست که چرا چت ربات هوش مصنوعی نام استاد را لکه دار می کند، با این حال، آقای ترولی معتقد است که “الگوریتم های هوش مصنوعی کمتر از افرادی که آنها را برنامه ریزی می کنند مغرضانه و ناقص نیستند.”