Azure AI Content Safety ادعا میکند که میتواند تصاویر و متنهای «نامناسب» را تشخیص دهد و امتیازهای شدت را به آن اختصاص دهد.
مایکروسافت روز سهشنبه یک ابزار تعدیل محتوا با هوش مصنوعی راهاندازی کرد که ظاهراً قادر به علامتگذاری است.نامناسبتصاویر و متن در هشت زبان و رتبه بندی شدت آنها.
این سرویس که Azure AI Content Safety نام دارد، «طراحی شده است تا محیط ها و جوامع آنلاین امن تر را تقویت کندطبق گفته مایکروسافت. همچنین برای خنثی کردن “محتوای مغرضانه، جنسیتی، نژادپرستانه، نفرت انگیز، خشونت آمیز و خودآزاریاین غول نرم افزاری از طریق ایمیل به TechCrunch گفت. در حالی که در داشبورد هوش مصنوعی Azure OpenAI Service مایکروسافت تعبیه شده است، میتواند در سیستمهای غیر هوش مصنوعی مانند پلتفرمهای رسانههای اجتماعی و بازیهای چند نفره نیز مستقر شود.
مایکروسافت برای جلوگیری از برخی از مشکلات رایجتر تعدیل محتوای هوش مصنوعی، به کاربر اجازه میدهدتنظیم دقیقفیلترهای Azure AI برای زمینه، و رتبهبندیهای شدت قرار است امکان ممیزی سریع توسط ناظران انسانی را فراهم کند. یک سخنگوی توضیح داد که “تیمی از کارشناسان زبان شناسی و عدالت“دستورالعمل های برنامه خود را طراحی کرده بود، “با در نظر گرفتن فرهنگی [sic]، زبان و زمینه“
یکی از سخنگویان مایکروسافت به TechCrunch گفت که مدل جدید “قادر به درک محتوا و زمینه فرهنگی بسیار بهتر است” نسبت به مدلهای قبلی، که اغلب نتوانستند سرنخهای زمینه را دریافت کنند، و بهطور غیرضروری مواد خوشخیم را علامتگذاری میکردند. با این حال، آنها اذعان کردند که هیچ هوش مصنوعی کامل نیست و “توصیه[ed] استفاده از انسان در حلقه برای تأیید نتایج”
فناوری که هوش مصنوعی Azure را تقویت می کند همان کدی است که ربات چت هوش مصنوعی مایکروسافت Bing را از سرکشی باز می دارد – واقعیتی که ممکن است کاربران اولیه رقیب ChatGPT را نگران کند. هنگامی که در ماه فوریه معرفی شد، بینگ به طور به یاد ماندنی سعی کرد خبرنگاران را متقاعد کند که همسر خود را ترک کنند، حقایق واضحی مانند تاریخ و سال را انکار کرد، بشریت را تهدید به نابودی کرد و تاریخ را بازنویسی کرد. پس از توجه منفی قابل توجه رسانه ها، مایکروسافت چت های Bing را به پنج سوال در هر جلسه و 50 سوال در روز محدود کرد.
مانند همه برنامههای تعدیل محتوای هوش مصنوعی، هوش مصنوعی Azure برای برچسبگذاری دادههایی که روی آنها آموزش دیده است، به حاشیهنویسهای انسانی متکی است، به این معنی که به اندازه برنامهنویسانش بیطرفانه است. این از لحاظ تاریخی منجر به سردردهای روابط عمومی شده است – تقریباً یک دهه پس از اینکه نرم افزار تجزیه و تحلیل تصویر هوش مصنوعی گوگل عکس سیاه پوستان را به عنوان گوریل برچسب گذاری کرد، این شرکت هنوز گزینه جستجوی بصری نه تنها گوریل ها بلکه همه نخستی ها را غیرفعال می کند تا مبادا الگوریتم آن به طور تصادفی یک انسان را نشان دهد.
مایکروسافت تیم اخلاق و ایمنی هوش مصنوعی خود را در ماه مارس اخراج کرد، حتی زمانی که هیاهو در مورد مدلهای زبان بزرگ مانند ChatGPT به اوج خود رسیده بود و خود این شرکت میلیاردها دلار دیگر را برای مشارکت با توسعهدهنده ربات چت OpenAI سرمایهگذاری میکرد. این شرکت اخیراً پرسنل بیشتری را به دنبال هوش مصنوعی عمومی (AGI) اختصاص داده است که در آن یک سیستم نرم افزاری قادر به ابداع ایده هایی است که در آن برنامه ریزی نشده اند.
شما می توانید این داستان را در شبکه های اجتماعی به اشتراک بگذارید: