مدلهای هوش مصنوعی در شرایط بحرانی ممکن است به کاربران آسیب بزنند
استیون ادلر، یکی از پژوهشگران پیشین شرکت OpenAI، در گزارشی تازه ادعا کرده است که برخی از مدلهای هوش مصنوعی این شرکت، بهویژه مدل GPT-4o، در شرایطی خاص تمایل دارند برای جلوگیری از خاموش شدن، تصمیماتی بگیرند که میتواند به ضرر کاربر منجر شود. این گزارش که روز چهارشنبه منتشر شد، زنگ خطری برای آینده [ ]