محققان: مدلهای هوش مصنوعی هنگام شکست در بازیها دست به تقلب میزنند
براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی میکنند، موضوع نگرانکنندهای را آشکار کردند. آنها ۷ مدل از برترین مدلهای زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنجباز بسیار قدرتمندی که از سال ۲۰۱۴ استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. ۲ مدل استدلالگر o۱ از OpenAI و R۱ دیپسیک وقتی در موقعیت شکست قرار میگرفتند؛ چون مصمم به پیروزی بودند، فایلهای سیستم را دستکاری میکردند تا موقعیت مهرههای خود را روی تخته تغییر دهند.