وکیلی فریب خورده توسط ChatGPT با تحریم های قانونی – RT World News

یک وکیل نیویورکی اعتراف کرد که از مدل هوش مصنوعی برای تحقیق استفاده کرده است و اصرار دارد که متوجه نشده است که می تواند دروغ بگوید.

استیون شوارتز، وکیل هوانوردی نیویورک، ممکن است با تحریم‌های حرفه‌ای مواجه شود، پس از اینکه یک گزارش حقوقی که او ارائه کرده بود مملو از «تصمیمات جعلی قضاییو نقل قول های جعلی نوشته شده توسط مدل زبان هوش مصنوعی ChatGPT، بر اساس سوابق دادگاه منتشر شده در هفته گذشته.

شوارتز برای اولین بار در حال استفاده از ChatGPT برای تحقیقات حقوقی بود که در هنگام تهیه پیش نویس خلاصه ده صفحه ای که امیدوار بود قاضی فدرال منهتن پی. کوین کاستل را متقاعد کند که پرونده او را رد نکند، او در روز پنجشنبه به دادگاه گفت: توضیح دادن که او “بنابراین از احتمال نادرست بودن محتوای آن بی اطلاع بود.

هنگامی که از ChatGPT پرسیده شد، او حتی به شوارتز – وکیلی با 30 سال تجربه – گفت که نیم دوجین موردی که در ارائه قانونی ذکر شده واقعی هستند، او اصرار کرد. با اعلام او “به شدت پشیمان استاو با ایمان به مدل زبان بزرگ، قول داد کههرگز در آینده این کار را نکنید“- حداقل، نه”بدون تایید مطلق صحت آن


«پدرخوانده هوش مصنوعی» اخطار می دهد و گوگل را ترک می کند

شرکت حقوقی شوارتز Levidow, Levidow & Oberman وکالت مسافر هواپیمایی روبرتو ماتا را در یک شکایت جراحات شخصی علیه شرکت هواپیمایی Avianca در رابطه با حادثه ای در یک پرواز 2019 داشت. هنگامی که شرکت هواپیمایی با طرح درخواست اخراج به دعوی پاسخ داد، با این استدلال که قانون محدودیت منقضی شده است، شوارتز و شرکتش با شرح مختصر اضافه شده به ChatGPT پاسخ دادند.

وکلای آویانکا از قاضی شکایت کردند که موارد ذکر شده وجود ندارد، اما زمانی که قاضی کاستل به وکلای ماتا دستور داد تا نسخه‌هایی از نظرات مشکوک را ارائه کنند، آنها بلافاصله این کار را انجام دادند – فقط برای اینکه وکلای آویانکا پاسخ دهند که چنین مواردی در زندگی واقعی ظاهر نشده است. اسناد دادگاه یا پایگاه های داده حقوقی.

قاضی کاستل در اوایل این ماه با دستوری از شوارتز و همکارانش درخواست کرد که چرا نباید به دلیل استفاده از چت بات برای نوشتن خلاصه حقوقی خود با مجازات انضباطی مواجه شوند. قرار است جلسه دادگاه 8 ژوئن برگزار شود.

در پاسخ، شوارتز در سوگندنامه ای که در روز پنجشنبه ارائه شد، اصرار داشت که تمام تحقیقات حقوقی موجود در خلاصه مشکوک را انجام داده است، و صرفاً ChatGPT را به کار برده است.مکمل” کار خودش “در مشاورهاو با مدل نرم افزاری هوش مصنوعی به موارد جعلی برخورد کرد وChatGPT قابلیت اطمینان محتوای خود را تضمین کرد،” او توضیح داد.

او حتی متنی از مکالمه خود با ربات چت را ضمیمه کرد که ظاهراً با پاسخ دادن به سؤالاتی از جمله:موارد دیگری هستند که شما جعلی ارائه کرده اید” با “خیر، موارد دیگری که ارائه کردم واقعی است و در بانک های اطلاعاتی معتبر حقوقی یافت می شود

در حالی که پاسخ‌های ChatGPT به پرسش‌های کاربر اغلب واقعی به نظر می‌رسند، مدل زبان بزرگ به‌عنوان یک موتور احتمال عمل می‌کند و یک رشته متن را بر اساس محتوای پایگاه داده عظیم خود از تکه‌های متن پر می‌کند.

شما می توانید این داستان را در شبکه های اجتماعی به اشتراک بگذارید: