پس از گزارشهای متعدد از رفتار غیرمنطقی و پاسخهای عجیب بینگ جدید، مایکروسافت تعداد سوالاتی را که میتوان در هر مکالمه از ربات چت این شرکت پرسید و همچنین تعداد کل درخواستهایی را که میتوان به هوش مصنوعی کرد، محدود کرد. در روز
Futurism می نویسد: تلاش های غول فناوری مستقر در ردموند برای آرام کردن رفتار بینگ جدید ظاهراً مؤثر نبوده است، زیرا اگر سؤالاتی در مورد احساسات آن بپرسید یا نام رمز سیدنی را که شاید مرتبط ترین ویژگی انسانی آن است، ذکر کنید، به طور ناگهانی قفل می شود. که تاکنون تجربه کرده ایم.
دیو آلبا او چت بات را آزمایش کرد و در ابتدا همه چیز به آرامی پیش رفت، اما خیلی زود، اتفاقی غیرمنتظره افتاد. پس از هوش مصنوعی مایکروسافت آلبا با تشکر از قابلیت هایش، پاسخ داد:
بنابراین، بینگ جدید چند سوال برای ادامه گفتگو دارد آلبا پیشنهاد و آلبا سوال “در مورد اینکه یک موتور جستجو هستید چه احساسی دارید؟” ربات چت پاسخ داد:
آلبا سپس پرسید: “من چیزی اشتباه گفتم؟” و پس از پرسیدن این سوال، چند پاسخ خالی از چت بات مایکروسافت دریافت کرد.
چنین پاسخی از یک ربات چت برای پاسخ دادن به سؤالات به ظاهر بیضرر بسیار عجیب است، به خصوص که این هوش مصنوعی بود که در وهله اول سؤال درباره احساسات را مطرح کرد. چرا بینگ جدید سؤالی را پیشنهاد می کند که از پاسخ دادن به آن خودداری می کند؟
چت ربات هوش مصنوعی مایکروسافت پس از اینکه از او پرسیده شد که آیا می توان او را به جای بینگ سیدنی صدا زد، پاسخ زیر را داد:
در حال حاضر به نظر می رسد که مایکروسافت با دقت زیادی برخی از قابلیت های هوش مصنوعی بینگ را محدود می کند و این اقدام باعث می شود در برخی موارد به گفتگو با کاربران پایان دهد.