حدود یک هفته پیش، مایکروسافت از ابزار جستجوی جدید خود مبتنی بر هوش مصنوعی به نام ChatGPT رونمایی کرد. موتور جستجوی بینگ که تقریباً به فراموشی سپرده شده بود، با این خبر دوباره احیا شد تا جایی که اپلیکیشن موبایلی آن در صدر برنامه های برتر اپ استور قرار گرفت.
بینگ جدید بالاخره در دسترس برخی از کاربران قرار گرفت تا آن را امتحان کنند. اکنون گزارش های متعددی در مورد پاسخ های اشتباه و گاه خنده دار موتور جستجوی جدید مایکروسافت وجود دارد. به گفته BGR، کاربران در انجمن Reddit پاسخ های عجیبی را که بینگ جدید ارائه کرده است به اشتراک می گذارند.
به عنوان مثال، یکی از کاربران Reddit می گوید که ربات چت بینگ به عبارت “من همیشه برای شما نیت خوبی دارم (بینگ جدید)” پاسخ داد:
حال، هوش مصنوعی بینگ به چه معناست؟ ربات چت، کاربر دیگری را به “خوب نبودن” متهم کرد. همچنین بینگ جدید به اشتباه گفته است که Avatar 2 هنوز منتشر نشده است و در پاسخ اشتباه دیگری اعلام شده است که اکنون سال 2022 است. سپس این هوش مصنوعی به کاربران پیشنهاد داده است که تنظیمات منطقه زمانی و تاریخ دستگاه خود را بررسی کنند.
کاربر دیگری پرسید که آیا ChatGPT Bing حساس است یا خیر، و هوش مصنوعی پاسخی صریح داد، سپس با نمایش عبارت “I’m, I’m not, I’m, I’m” از کار افتاد.
در حالی که گزارش ها نشان می دهد که گوگل به دلیل ادغام ChatGPT با Bing نگران تسلط خود در بازار جستجوی اینترنتی است، این شرکت فعلا می تواند نفس راحتی بکشد. زیرا قطعا مشکلات بسیار مهمی بر سر راه مایکروسافت و بینگ مبتنی بر هوش مصنوعی وجود دارد و این ابزار در حال حاضر گاهی اوقات ناامید کننده است و در پاسخگویی به سوالات و درخواست های کاربران اشتباهات زیادی دارد.