مایکروسافت ابزار تعدیل هوش مصنوعی – RT World News را راه اندازی کرد

Azure AI Content Safety ادعا می‌کند که می‌تواند تصاویر و متن‌های «نامناسب» را تشخیص دهد و امتیازهای شدت را به آن اختصاص دهد.

مایکروسافت روز سه‌شنبه یک ابزار تعدیل محتوا با هوش مصنوعی راه‌اندازی کرد که ظاهراً قادر به علامت‌گذاری است.نامناسبتصاویر و متن در هشت زبان و رتبه بندی شدت آنها.

این سرویس که Azure AI Content Safety نام دارد، «طراحی شده است تا محیط ها و جوامع آنلاین امن تر را تقویت کندطبق گفته مایکروسافت. همچنین برای خنثی کردن “محتوای مغرضانه، جنسیتی، نژادپرستانه، نفرت انگیز، خشونت آمیز و خودآزاریاین غول نرم افزاری از طریق ایمیل به TechCrunch گفت. در حالی که در داشبورد هوش مصنوعی Azure OpenAI Service مایکروسافت تعبیه شده است، می‌تواند در سیستم‌های غیر هوش مصنوعی مانند پلتفرم‌های رسانه‌های اجتماعی و بازی‌های چند نفره نیز مستقر شود.

مایکروسافت برای جلوگیری از برخی از مشکلات رایج‌تر تعدیل محتوای هوش مصنوعی، به کاربر اجازه می‌دهدتنظیم دقیقفیلترهای Azure AI برای زمینه، و رتبه‌بندی‌های شدت قرار است امکان ممیزی سریع توسط ناظران انسانی را فراهم کند. یک سخنگوی توضیح داد که “تیمی از کارشناسان زبان شناسی و عدالت“دستورالعمل های برنامه خود را طراحی کرده بود، “با در نظر گرفتن فرهنگی [sic]، زبان و زمینه


AI «ممکن است کاملاً اشتباه پیش برود» - مخترع ChatGPT

یکی از سخنگویان مایکروسافت به TechCrunch گفت که مدل جدید “قادر به درک محتوا و زمینه فرهنگی بسیار بهتر است” نسبت به مدل‌های قبلی، که اغلب نتوانستند سرنخ‌های زمینه را دریافت کنند، و به‌طور غیرضروری مواد خوش‌خیم را علامت‌گذاری می‌کردند. با این حال، آنها اذعان کردند که هیچ هوش مصنوعی کامل نیست و “توصیه[ed] استفاده از انسان در حلقه برای تأیید نتایج

فناوری که هوش مصنوعی Azure را تقویت می کند همان کدی است که ربات چت هوش مصنوعی مایکروسافت Bing را از سرکشی باز می دارد – واقعیتی که ممکن است کاربران اولیه رقیب ChatGPT را نگران کند. هنگامی که در ماه فوریه معرفی شد، بینگ به طور به یاد ماندنی سعی کرد خبرنگاران را متقاعد کند که همسر خود را ترک کنند، حقایق واضحی مانند تاریخ و سال را انکار کرد، بشریت را تهدید به نابودی کرد و تاریخ را بازنویسی کرد. پس از توجه منفی قابل توجه رسانه ها، مایکروسافت چت های Bing را به پنج سوال در هر جلسه و 50 سوال در روز محدود کرد.

مانند همه برنامه‌های تعدیل محتوای هوش مصنوعی، هوش مصنوعی Azure برای برچسب‌گذاری داده‌هایی که روی آن‌ها آموزش دیده است، به حاشیه‌نویس‌های انسانی متکی است، به این معنی که به اندازه برنامه‌نویسانش بی‌طرفانه است. این از لحاظ تاریخی منجر به سردردهای روابط عمومی شده است – تقریباً یک دهه پس از اینکه نرم افزار تجزیه و تحلیل تصویر هوش مصنوعی گوگل عکس سیاه پوستان را به عنوان گوریل برچسب گذاری کرد، این شرکت هنوز گزینه جستجوی بصری نه تنها گوریل ها بلکه همه نخستی ها را غیرفعال می کند تا مبادا الگوریتم آن به طور تصادفی یک انسان را نشان دهد.

مایکروسافت تیم اخلاق و ایمنی هوش مصنوعی خود را در ماه مارس اخراج کرد، حتی زمانی که هیاهو در مورد مدل‌های زبان بزرگ مانند ChatGPT به اوج خود رسیده بود و خود این شرکت میلیاردها دلار دیگر را برای مشارکت با توسعه‌دهنده ربات چت OpenAI سرمایه‌گذاری می‌کرد. این شرکت اخیراً پرسنل بیشتری را به دنبال هوش مصنوعی عمومی (AGI) اختصاص داده است که در آن یک سیستم نرم افزاری قادر به ابداع ایده هایی است که در آن برنامه ریزی نشده اند.

شما می توانید این داستان را در شبکه های اجتماعی به اشتراک بگذارید: