روباتهای هوش مصنوعی را میتوان به انجام کارهای خطرناک فریب داد - پیوست
در حدود یک سال گذشته مدلهای بزرگ زبانی زیر ذرهبین محققان قرار گرفتهاند، پژوهشگران روشهای مختلفی برای فریب آنها یافتند و خروجیهای مسئله سازی از جمله شوخیهای نفرتانگیز، کدهای مخرب و ایمیلهای فیشینگ تولید کردند یا حتی در مواردی توانستند به اطلاعات شخصی کاربران دسترسی پیدا کنند. حالا به نظر میرسد که این چنین رویکرد