در حدود یک سال گذشته مدلهای بزرگ زبانی زیر ذرهبین محققان قرار گرفتهاند، پژوهشگران روشهای مختلفی برای فریب آنها یافتند و خروجیهای مسئله سازی از جمله شوخیهای نفرتانگیز، کدهای مخرب و ایمیلهای فیشینگ تولید کردند یا حتی در مواردی توانستند به اطلاعات شخصی کاربران دسترسی پیدا کنند. حالا به نظر میرسد که این چنین رویکرد فریبکارانهای در جهان واقعی هم امکانپذیر است: روباتهای مبتنی بر مدل زبانی را میتوان به انجام کارهای خطرناک فریب داد.