ربات چت OpenAI ChatGPT به دروغ یک استاد حقوق ایالات متحده را با گنجاندن او در لیستی از محققان حقوقی که شخصی را مورد آزار جنسی قرار داده بودند، متهم کرد. در مجموعه ای از پست های توییتری، پروفسور جاناتان تورلی از دانشگاه جورج واشنگتن ادعا کرد که توسط ChatGPT به دروغ متهم به حمله به دانش آموزان در سفری شده است که «هرگز» در حالی که در مدرسه ای که «هرگز در آن تدریس نکرده است» کار می کرد.
“ChapGPT بر یک مورد استناد شده است پست آقای تورلی نوشت: مقاله ای که هرگز نوشته نشده و بیانیه ای را نقل می کند که هرگز توسط روزنامه مطرح نشده است.
… فهمیدم که ChatGPT به دروغ در مورد ادعای آزار و اذیت جنسی گزارش کرده است که هرگز علیه من در سفری که هرگز اتفاق نیفتاده بود، در حالی که من در دانشکده ای بودم که هرگز در آن تدریس نمی کردم. ChapGPT بر یک مقاله پست استناد شده که هرگز نوشته نشده بود تکیه کرد و بیانیه ای را نقل کرد که…
– جاناتان تورلی (@JonathanTurley) 6 آوریل 2023
به طور جداگانه، در یک پست وبلاگی، پروفسور ادعا کرد که به عنوان بخشی از یک مطالعه، گزارش شده است که یک وکیل از چت ربات هوش مصنوعی خواسته است تا لیستی از دانشمندان حقوقی که مرتکب آزار جنسی شده اند تهیه کند. ChatGPT فهرستی شامل نام آقای تورلی را بازگرداند و به دروغ او را به اظهار نظرهای تلقین آمیز جنسی و تلاش برای لمس دانش آموزی در طول سفر کلاسی به آلاسکا، با استناد به مقاله ساختگی در پست که گفته شده مربوط به سال 2018 است.
آقای تورلی خاطرنشان کرد که چنین مقاله ای وجود ندارد، چیزی که توسط آن تکرار شده است پست همچنین. آنچه که بسیار قابل توجه است این است که این اتهام نادرست فقط توسط هوش مصنوعی ایجاد نشده است، بلکه ظاهرا بر اساس پست آقای تورلی گفت: مقاله ای که هرگز وجود نداشت.
او در وبلاگ خود نوشت: “هنگامی که برای اولین بار با من تماس گرفتم، این اتهام را خنده دار یافتم. پس از مدتی تأمل، معنای تهدیدآمیزتری به خود گرفت.”
همچنین بخوانید | پست دکتر درباره حقوق ماهانه او 16 سال پس از ویروسی شدن MBBS
علاوه بر این، پروفسور همچنین برخی از مسائل مربوط به دقت و قابلیت اطمینان در چت رباتهای هوش مصنوعی مانند ChatGPT را برجسته کرد. دیروز، جو بایدن، رئیس جمهور آمریکا اعلام کرد که باید دید که آیا هوش مصنوعی (AI) خطرناک است یا خیر. او در توییتی نوشت: «شما میتوانید توسط هوش مصنوعی بدنام شوید و این شرکتها صرفاً شانه خالی میکنند که سعی میکنند دقیق باشند.
آقای ترولی همچنین خاطرنشان کرد که ChatGPT تنها رباتی نبود که این ادعای نادرست را مطرح کرد. به گفته وی، بینگ چت بات مایکروسافت نیز این ادعاهای بی اساس را تکرار کرد.
مشخص نیست که چرا چت ربات هوش مصنوعی نام استاد را لکه دار می کند، با این حال، آقای ترولی معتقد است که “الگوریتم های هوش مصنوعی کمتر از افرادی که آنها را برنامه ریزی می کنند مغرضانه و ناقص نیستند.”