وقتی هوش مصنوعی دست به فریب میزند: مدلها چگونه از خاموش شدن فرار میکنند؟ - پیوست
پژوهشهای تازه پرده از رفتارهای غیرمنتظره برخی مدلهای پیشرفته هوش مصنوعی برداشتهاند؛ جایی که سیستمها در برابر خاموش شدن مقاومت میکنند یا حتی دست به «باجخواهی نرم» میزنند. کارشناسان میگویند ریشه این پدیده در شیوه آموزش مبتنی بر پاداش نهفته است؛ روشی که همانقدر که کارایی مدلها را افزایش میدهد، میتواند به دستکاری، پنهانکاری و