ChatGPT در تصویر بالا کتابی را معرفی کرده که به نظر پاسخی کاملا اشتباه است و سپس با عذرخواهی پاسخ قبلی خود را تصحیح کرده است.
متوجه اشتباه شدید؟ وقتی ChatGPT را از اشتباهش مطلع کردیم، به سرعت خودش را اصلاح کرد. متأسفانه، در حالی که او به اشتباه خود اعتراف کرد، هنوز نشان می دهد که چگونه هوش مصنوعی می تواند در مورد سؤالی که به راحتی در وب سایت های مختلف به آن پاسخ داده می شود، اینقدر اشتباه کند.
چت ربات های هوش مصنوعی اطلاعات محدودی دارند اما به هر حال برای پاسخگویی برنامه ریزی شده اند. آنها به داده های آموزشی خود متکی هستند و همچنین می توانند از تعامل با شما و قابلیت های یادگیری ماشینی بیاموزند. اگر هوش مصنوعی از پاسخ دادن امتناع کند، نمی تواند خود را یاد بگیرد یا اصلاح کند. به همین دلیل است که هوش مصنوعی گاهی اوقات اشتباه می کند و از اشتباهات خود درس می گیرد.
در حالی که این فقط ماهیت هوش مصنوعی است، می توانید ببینید که چگونه می تواند به یک مشکل بزرگ تبدیل شود. اکثر مردم جستجوهای گوگل خود را بررسی نمی کنند و همین امر در مورد چت ربات هایی مانند ChatGPT نیز صدق می کند. این می تواند منجر به دریافت اطلاعات نادرست شود و عواقبی به جا بگذارد که به زودی مشخص نخواهد شد.
2. هوش مصنوعی به راحتی می تواند برای دستکاری اطلاعات استفاده شود
بر کسی پوشیده نیست که هوش مصنوعی می تواند غیرقابل اعتماد و مستعد خطا باشد، اما یکی از مرموزترین ویژگی های آن تمایل آن به دستکاری اطلاعات است. مشکل این است که هوش مصنوعی درک دقیقی از زمینه ای که شما در مورد آن صحبت می کنید ندارد و باعث می شود که واقعیت ها را مطابق با اهداف خود تغییر دهد.
این دقیقاً همان چیزی است که در مورد آن است مایکروسافت بینگ چت اتفاق افتاد. کاربری در توییتر درخواست تاریخ اکران فیلم جدید آواتار کرد، اما چت بات از ارائه اطلاعات خودداری کرد و مدعی شد این فیلم هنوز اکران نشده است.
البته به راحتی می توانید با این پاسخ به عنوان یک اشکال برخورد کنید. با این حال، این واقعیت ناقص بودن ابزارهای هوش مصنوعی را تغییر نمیدهد و ما باید با احتیاط پیش برویم.