هکرها ChatGPT را مجبور به ایجاد بدافزار از طریق تلگرام می کنند


ماه گذشته، Check Point همچنین شواهدی ارائه کرد که نشان می‌دهد چگونه می‌توان از هوش مصنوعی برای توسعه بدافزارها و نوشتن ایمیل‌های فیشینگ استفاده کرد. بر اساس آن گزارش، در دسامبر 2022 (آذر 1401) و ژانویه 2023 (دسامبر 1401)، توسعه بدافزار و نوشتن ایمیل های فیشینگ به راحتی توسط ChatGPT و از طریق رابط وب آن انجام شد.

نمایندگان OpenAI، شرکت مستقر در سانفرانسیسکو که ChatGPT را توسعه داده است، هنوز به سؤالات مربوط به سوء استفاده از این هوش مصنوعی و اینکه آیا این شرکت از نتایج تحقیقات آگاه است یا برنامه ای برای ویرایش رابط API ارائه کرده است، پاسخ نداده اند.

توسعه و تولید بدافزار و نوشتن ایمیل‌های فیشینگ می‌تواند نمونه واقعی باز کردن جعبه پاندورا باشد که طبق افسانه‌های یونانی منشأ تمام بدبختی‌های بشر تا به امروز است و می‌تواند ما را در فضایی آخرالزمانی از هر طرف اینترنت قرار دهد.

از دیگر کاربردهای ناامن و غیراخلاقی هوش مصنوعی می توان به تکالیف مدرسه یا تولید ضداطلاعات و اطلاعات نادرست اشاره کرد. البته می توان از همین توانایی برای تولید محتوای مخرب و غیراخلاقی برای توسعه راه های مقابله با آن نیز استفاده کرد. اما مشخص نیست که آیا کاربرد عملی آن بر سوء استفاده آن غالب است یا برعکس.

نظر شما در مورد امکان استفاده از هوش مصنوعی برای تولید بدافزار چیست؟