هوش مصنوعی و فعالیت های مجرمانه؛ پلیس اروپا از “چشم انداز ترسناک” فضای سایبری صحبت می کند


یوروپل (آژانس اتحادیه اروپا برای همکاری اجرای قانون) بیانیه ای در مورد نحوه استفاده مجرمان سایبری از چت بات های پیشرفته منتشر کرده است. هوش مصنوعی را توصیف کنید و در مورد خطراتی که پیشرفت هوش مصنوعی به همراه دارد هشدار دهید. آمار نشان می دهد که مجرمان سایبری به طور فزاینده ای از چت ربات هایی مانند ChatGPT و Google Bard برای فریب دادن مردم وجود دارند.

مطابق با Digital Trends، Europol می گوید: استفاده مجرمان سایبری از هوش مصنوعی سه نگرانی عمده را ایجاد می کند. اولین نگرانی مربوط به تقلب و مهندسی اجتماعی است. در این روش، مجرمان برای قربانیان خود ایمیل می فرستند و آنها را تشویق می کنند تا فایلی حاوی بدافزار را دانلود کنند یا روی لینک یک وب سایت مخرب کلیک کنند.

ایمیل های فیشینگ معمولاً مملو از اشتباهات گرامری و املایی هستند و به پوشه اسپم ایمیل ها ختم می شوند. حتی آنهایی که به پوشه صندوق ورودی راه پیدا می کنند به گونه ای نوشته شده اند که معمولاً به عنوان فیشینگ قابل تشخیص هستند. با این حال، چت ربات های هوش مصنوعی می توانند متون را با دقت گرامری بسیار بالا بنویسند. به لطف این ربات‌های گفتگو، مجرم سایبری می‌تواند ایمیل‌های متقاعدکننده‌ای را به اهداف خود ارسال کند و توجه آنها را جلب کند.

یوروپل می گوید چت ربات های پیشرفته امروزی می توانند الگوهای زبان را با دقت بالا بازتولید کنند و متون را با لحنی مشابه برای افراد یا گروه های خاص بنویسند. به گفته یوروپل، مجرمان می توانند از چنین ویژگی در مقیاس وسیع برای فریب قربانیان استفاده کنند.

چت ربات های هوش مصنوعی نیز بر انتشار اطلاعات گمراه کننده تأثیر می گذارند. این سرویس می گوید: «این باعث می شود مدل هوش مصنوعی برای تبلیغات و اطلاعات نادرست ایده آل باشد.

سومین نگرانی یوروپل به توانایی چت ربات های هوش مصنوعی در زمینه کدنویسی مربوط می شود. مجرمان سایبری از این ویژگی برای ایجاد بدافزار استفاده می کنند: “ChatGPT می تواند علاوه بر تولید متنی شبیه انسان، کد را در چندین زبان برنامه نویسی مختلف بنویسد.”

به گفته یوروپل، وضعیت فعلی یک “چشم انداز ترسناک” برای سازمان های مجری قانون است، زیرا تشخیص فعالیت های مجرمانه آنلاین دشوارتر می شود.