دوشنبه / ۴ اسفند / ۱۴۰۴ - 23 February, 2026
 مجله پیوست / ۱۴۰۴/۰۸/۱۷

مدل‌های استدلال‌گر بیش از دیگر هوش مصنوعی‌ها در برابر حملات «جیلبریک» آسیب‌پذیرند - پیوست

 مدل‌های استدلال‌گر بیش از دیگر هوش مصنوعی‌ها در برابر حملات «جیلبریک» آسیب‌پذیرند - پیوست
نتایج مطالعه‌ای مشترک از سوی انتروپیک، دانشگاه آکسفورد و دانشگاه استنفورد حاکی از آن است که مدل‌های پیشرفته هوش مصنوعی با توانایی «استدلال و تفکر چندمرحله‌ای»، برخلاف تصور پیشین، بیش از سایر مدل‌ها نسبت به هک و حملات جیلبریک آسیب‌پذیر هستند. پژوهشگران می‌گویند هرچه مدل‌ها در «تفکر زنجیره‌ای» و تحلیل منطقی قوی‌تر می‌شوند، برخلاف تصور