راه حل موقت مایکروسافت برای کاهش مشکلات جدید بینگ؛ محدودیت پنج سوال در هر چت


پس از مشاهده گزارش های متعدد از پاسخ های عجیب و غیرمنطقی بینگ جدید در چند روز اخیر، مایکروسافت اکنون تصمیم به اعمال محدودیت هایی برای این چت بات گرفته است. از این پس هر کاربر روزانه تنها می تواند 50 سوال از این هوش مصنوعی بپرسد و علاوه بر آن در هر جلسه چت تنها پنج سوال یا درخواست را می توان به صورت متوالی مطرح کرد.

تیم بینگ در یک پست وبلاگ گفت:

طبق گزارش The Verge، مایکروسافت در اوایل این هفته هشدار داد که چت طولانی تر از 15 سوال یا بیشتر با بینگ جدید ممکن است باعث شود هوش مصنوعی پاسخ هایی را بدهد که برای آن برنامه ریزی نشده است یا با لحنی غیرحرفه ای صحبت کند. غول فناوری مستقر در ردموند می گوید پاک کردن مکالمات پس از پنج سوال یا درخواست از سردرگمی مدل هوش مصنوعی جلوگیری می کند.

مزخرفات بینگ جدید تا آنجا پیش رفته است که اخیراً حتی سعی کرده اند ازدواج یک نویسنده نیویورک تایمز را به هم بزنند. مایکروسافت همچنان در حال تلاش برای بهبود لحن چت بات خود است. این شرکت می‌گوید که با دریافت بازخورد بیشتر از کاربران، محدودیت‌های جلسات چت را بررسی کرده و از آنها برای بهبود عملکرد هوش مصنوعی استفاده خواهد کرد.

حال باید دید که چت ربات هوش مصنوعی مایکروسافت در ادامه روند تکاملی خود با چه مشکلات دیگری مواجه خواهد شد و آیا این شرکت می تواند نسخه کامل و بی نقصی از بینگ جدید را در اختیار میلیون ها کاربر اینترنتی قرار دهد یا خیر.