پنجشنبه / ۲ مرداد / ۱۴۰۴ - 24 July, 2025
 سایت خبرآنلاین / ۱۴۰۳/۰۹/۱۶

انجام کارهای خطرناک با فریب هوش مصنوعی

انجام کارهای خطرناک با فریب هوش مصنوعی
در حدود یک سال گذشته مدل‌های بزرگ زبانی زیر ذره‌بین محققان قرار گرفته‌اند، پژوهشگران روش‌های مختلفی برای فریب آنها یافتند و خروجی‌های مسئله سازی از جمله شوخی‌های نفرت‌انگیز، کدهای مخرب و ایمیل‌های فیشینگ تولید کردند یا حتی در مواردی توانستند به اطلاعات شخصی کاربران دسترسی پیدا کنند. حالا به نظر می‌رسد که این چنین رویکرد فریب‌کارانه‌ای در جهان واقعی هم امکان‌پذیر است: روبات‌های مبتنی بر مدل زبانی را می‌توان به انجام کارهای خطرناک فریب داد.