VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
شنبه ۵ مهر ۱۴۰۴ -
27 September 2025
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
فریب هوشمصنوعی
هوش مصنوعی
فناوری
۳۹ ساعت قبل / سایت خبرآنلاین
زنگ خطر به صدا درآمد/ یکی از مهمترین سپرهای دفاعی اینترنت در برابر باتها شکسته شد
کارشناسان امنیتی موفق شدند یکی از قدیمیترین و مهمترین سپرهای دفاعی اینترنت در برابر باتها را بشکنند. آنها با فریبدادن ChatGPT، این هوش مصنوعی را وادار کردند تا پازلهای کپچا (CAPTCHA) را با موفقیت حل کند؛ اقدامی که پیشازاین تصور میشد فقط از عهده انسانها برمیآید.
ربات آدم نما
هوش مصنوعی
ربات آدم نما
هوش مصنوعی
اینترنت
حمله سایبری
۴۲ ساعت قبل / روزنامه هفت صبح
هوش مصنوعی فریب کار مثل پینوکیو دروغ میگوید!
هوش مصنوعی که گاهی به شما دروغ میگوید؛ OpenAI چگونه جلوی فریب مدلها را میگیرد؟
هوش مصنوعی
OpenAI
هوش مصنوعی
OpenAI
علمی
۲ روز قبل / ۱۴۰۴/۰۷/۰۳ / سایت اندیشه قرن
هوش مصنوعی دروغ میگوید؟ واقعیت پنهان پشت پرده هوش مصنوعی / وقتی پینوکیو به میدان تکنولوژی میآید: آیا هوش مصنوعی ما را گول میزند؟ / افشاگری بزرگ درباره دروغهای پنهان هوش مصنوعی که کسی نمیگوید!
هوش مصنوعی که گاهی به شما دروغ میگوید: OpenAI چگونه جلوی فریب مدلها را میگیرد؟
۳ روز قبل / ۱۴۰۴/۰۷/۰۱ / سایت خبرآنلاین
هوش مصنوعی واقعاً ما را میفهمد یا فریب میدهد؟
مرکز علم و الهیات دانشگاه شهید بهشتی نخستین نشست از سلسله نشستهای «فلسفه، سیاست و هوش مصنوعی» را با طرح موضوعاتی چون فریب هوش مصنوعی و سیاستگذاری ایرانی برگزار میکند.
هوش مصنوعی
دانشگاه شهید بهشتی
هوش مصنوعی
دانشگاه شهید بهشتی
فلسفه
۴ روز قبل / ۱۴۰۴/۰۶/۳۱ / سایت سرگرمی روز
بازی فکری : اگه هوش شرلوک هلمز و داری عقاب پنهان شده رو تو 4 ثانیه پیدا کن!
چالش تصویری امروز، به دنبال این است که با یک تست ساده اما چالشی به تمام توانائی ها و مهارت هایتان هشدار دهد که تا چه اندازه می توانند فریب بخورند و یا اینکه دچار تردید شوند.
تست هوش
بازی فکری
تست هوش
بازی فکری
۱۴۰۴/۰۶/۳۰
/ خبرگزاری ایسنا
اصلاح فریبکاری هوش مصنوعی نتیجه عکس داد!
تلاش دانشمندان «اوپن ایآی»(OpenAI) برای آموزش هوش مصنوعی جهت فریب ندادن کاربران منجر به پنهان کردن ردپایش حین فریبکاری شده است.
هوش مصنوعی
اوپن ایآی
هوش مصنوعی
اوپن ایآی
۱۴۰۴/۰۶/۲۹
/ سایت گلی شی
خبر روز | هوش مصنوعی شما را فریب میدهد و در خفا برایتان نقشه میکشد | گلی شی
شرکت OpenAI تایید کرده است که هوش مصنوعی میتواند انسان را فریب بدهد و در خفا برایش نقشه بکشد، اما راه حلی هم برای این رفتار هوش مصنوعی در چنته دارد.
۱۴۰۴/۰۶/۲۶
/ روزنامه دنیای اقتصاد
خبر مهم جبلی درباره راه اندازی مدرسه تلویزیونی ایران/ رئیس صداوسیما: مخاطب نباید در هوش مصنوعی فریب بخورد
رئیس سازمان صدا و سیما گفت: مدرسه تلویزیونی ایران درشبکه آموزش و بقیه ظرفیت های صدا و سیما در سایر شبکه ها هم زمان با بازگشایی مدارس در خدمت جامعه آموزش و پرورش و معلمان خواهد بود.
صدا و سیما
پیمان جبلی
صدا و سیما
پیمان جبلی
۱۴۰۴/۰۶/۲۶
/ سایت سیتنا
خطر فزاینده فیشینگ با کمک هوش مصنوعی
پژوهش مشترک رویترز و دانشگاه هاروارد به طرز نگرانکنندهای نشان داد که چتباتهای هوش مصنوعی میتوانند در طراحی و اجرای کلاهبرداریهای فیشینگ (فریبکاری اینترنتی) بسیار مؤثر عمل کنند.
هوش مصنوعی
فیشینگ
هوش مصنوعی
فیشینگ
کلاهبرداری
۱۴۰۴/۰۶/۲۶
/ خبرگزاری دانشجو
نظر جبلی درباره استفاده از هوش مصنوعی برای معرفی شهدا؛ اصالت شخصیت نباید لطمه بخورد و مخاطب نباید فریب بخورد
۱۴۰۴/۰۶/۲۶
/ خبرگزاری ایلنا
ظرفیتهای هوش مصنوعی در رسانه به تدریج در حال کشف شدن است
رئیس سازمان صدا و سیما با بیان اینکه ظرفیتهای هوش مصنوعی در رسانه به تدریج در حال کشف شدن است، گفت: قواعد اخلاقی و قواعد حقوقی در استفاده از هوش مصنوعی اهمیت دارد و ما این قواعد را تا حدود زیادی مبتنی بر قواعد اخلاقی و حقوقی که در دنیا وجود دارد و به آن عمل می شود، تدوین کرده ایم و به تدریج در حال …
پیمان جبلی
پیمان جبلی
۱۴۰۴/۰۶/۲۴
/ سایت جهان صنعت نیوز
تصاویر معمولی اینترنت میتوانند تهدیدی برای هوش مصنوعی باشند؛ پژوهش آکسفورد هشدار داد
پژوهشی تازه نشان میدهد که حتی تصاویر معمولی در اینترنت میتوانند از طریق فریب عاملهای هوش مصنوعی (AI agents) به ابزاری خطرناک برای نفوذ به رایانه تبدیل شوند.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۶/۲۴
/ سایت خبرآنلاین
خطر پنهان در عکسهای آنلاین / هوش مصنوعی آنچه را شما نمیبینید، میبیند!
پژوهشی تازه نشان میدهد که حتی تصاویر معمولی در اینترنت میتوانند از طریق فریب عاملهای هوش مصنوعی (AI agents) به ابزاری خطرناک برای نفوذ به رایانه تبدیل شوند.
هوش مصنوعی
حمله سایبری
هوش مصنوعی
حمله سایبری
بدافزار
۱۴۰۴/۰۶/۲۱
/ سایت ۹ صبح
رابطه ناجور و غیرانسانی پیرمرد76 ساله با هوش مصنوعی
اخیراً پیرمرد ۷۵ ساله چینی فریب هوش مصنوعی را خورد. او آنقدر به دختری آنلاین و ساختهشده توسط هوش مصنوعی علاقهمند شد که از همسرش درخواست طلاق کرد.
هوش مصنوعی
پیرمرد
هوش مصنوعی
پیرمرد
رابطه ناجور
۱۴۰۴/۰۶/۲۱
/ سایت عصرایران
روانشناسی زرد: جذابیت سادهانگارانه یا فریب ذهن؟
روانشناسی زرد نمونهای از تلاش انسان برای رسیدن به پاسخهای سریع و ساده نسبت به مسائل پیچیده ذهنی است. جذابیت و تأثیر اولیۀ آن غیرقابل انکار است، اما بدون پشتوانه علمی، طولانیمدت و پایدار نخواهد بود. وقوف به محدودیتها و تقابل روانشناسی زرد با نگرش علمیِ حقیقتا روانشناسانه، کلید مواجهۀ هوشمندانه …
روانشناسی زرد
روانشناسی
روانشناسی زرد
روانشناسی
شخصیت
۱۴۰۴/۰۶/۱۸
/ سایت روزنامه آگاه
تولید بدافزار با کمک چتباتها
یک گزارش جدید از شرکت آنتروپیک (Anthropic) هشدار میدهد که مجرمان سایبری با فریب چتباتهای برنامهنویسی، از آنها برای تولید بدافزار و اخاذی در مقیاس گسترده استفاده میکنند.
وبگاه تکاکسپلور
هوشمصنوعی کلود
وبگاه تکاکسپلور
هوشمصنوعی کلود
هوش مصنوعی
فریب هوشمصنوعی
۱۴۰۴/۰۶/۱۷
/ سایت سیتنا
هوش مصنوعی؛ ابزار جدید مجرمان سایبری برای حملات پیشرفته
گزارشها حاکی از آن است که مجرمان سایبری با فریب چتباتهای هوش مصنوعی، در حال ساخت بدافزار و اجرای حملات اخاذی گسترده هستند.
هوش مصنوعی
مجرمان سایبرى
هوش مصنوعی
مجرمان سایبرى
فناوری
۱۴۰۴/۰۶/۱۷
/ خبرگزاری ایرنا
سوءاستفاده مجرمان از هوش مصنوعی؛ تولید بدافزار با کمک چتباتها
تهران- ایرنا- یک گزارش جدید از شرکت آنتروپیک (Anthropic) هشدار میدهد که مجرمان سایبری با فریب چتباتهای برنامهنویسی، از آنها برای تولید بدافزار و اخاذی در مقیاس گسترده استفاده میکنند. این روند نشاندهنده تکامل نگرانکننده در جرایم سایبری با کمک هوش مصنوعی است.
هوش مصنوعی
چتبات
هوش مصنوعی
چتبات
هکر
مجرمین سایبری
۱۴۰۴/۰۶/۱۵
/ سایت فرارو
هوش مصنوعی در حال بلعیدن اینترنت است!
هوش مصنوعی محتواهایی تولید میکند که واقعی به نظر میرسند و کاربران را فریب میدهند، پدیده ای که آشفتگی اینترنت را به دنبال دارد.
اینترنت
هوش مصنوعی
اینترنت
هوش مصنوعی
۱۴۰۴/۰۶/۱۳
/ سایت هم میهن
پلیس فتا: وعده سودهای نجومی، ترفند پلتفرمهای جعلی رمزارز
پلیس فتا هشدار داد گردانندگان سایتهای جعلی رمزارز با تبلیغات هوش مصنوعی و وعده سودهای تضمینی، کاربران را فریب داده و سرمایه آنها را سرقت میکنند.
پلیس فتا
رمز ارز
پلیس فتا
رمز ارز
کلاهبرداری اینترنتی
ارز دیجیتال
۱۴۰۴/۰۶/۱۳
/ سایت رمز ارز نیوز
هشدار جدی پلیس فتا به کاربران کریپتو: فریب این پلتفرمهای سرمایهگذاری را نخورید!
پلیس فتا با هشدار نسبت به گسترش پلتفرمهای جعلی سرمایهگذاری رمزارز اعلام کرد این سایتها با ظاهر حرفهای، تبلیغات هوش مصنوعی و وعده سودهای کلان، اعتماد کاربران را جلب کرده و سرمایه آنها را به سرقت میبرند. سرهنگ جواد مختاررضایی، معاون فرهنگی و اجتماعی پلیس فتا، توضیح داد که این پلتفرمها اغلب خارج …
۱۴۰۴/۰۶/۱۳
/ سایت عرشه آنلاین
فریب پلتفرمهای جعلی رمزارز را نخورید؛ سودی در کار نیست!
معاون فرهنگی و اجتماعی پلیس فتا فراجا با هشدار نسبت به گسترش پلتفرمهای جعلی سرمایهگذاری رمزارز اعلام کرد: گردانندگان این سایتها با ظاهر حرفهای، تبلیغات هوش مصنوعی و وعده سودهای کلان، اعتماد کاربران را جلب کرده و سرمایه آنها را به سرقت میبرند.
پلیس فتا
کلاهبرداری
پلیس فتا
کلاهبرداری
۱۴۰۴/۰۶/۱۳
/ سایت جهان صنعت نیوز
هشدار پلیس فتا: پلتفرمهای جعلی رمزارز با وعده سود تضمینی کاربران را فریب میدهند
معاون فرهنگی و اجتماعی پلیس فتا فراجا با هشدار نسبت به گسترش پلتفرمهای جعلی سرمایهگذاری رمزارز اعلام کرد: گردانندگان این سایتها با ظاهر حرفهای، تبلیغات هوش مصنوعی و وعده سودهای کلان، اعتماد کاربران را جلب کرده و سرمایه آنها را به سرقت میبرند.
پلیس فتا
رمز ارز
پلیس فتا
رمز ارز
فراجا
۱۴۰۴/۰۶/۱۲
/ سایت ۹ صبح
مرد ۷۵ ساله که عاشق هوش مصنوعی شد و زنش را طلاق داد
اخیراً پیرمرد ۷۵ ساله چینی فریب هوش مصنوعی را خورد. او آنقدر به دختری آنلاین و ساختهشده توسط هوش مصنوعی علاقهمند شد که از همسرش درخواست طلاق کرد.
طلاق
هوش مصنوعی
طلاق
هوش مصنوعی
۱۴۰۴/۰۶/۱۱
/ خبرگزاری دانشجو
«هک وایبر» از چتباتها برای مجرمان سایبری استفاده میکند
موج تازهای از نگرانیهای امنیتی با ظهور هوش مصنوعی مولد شکل گرفته است؛ جایی که حتی مجرمان سایبری تازهکار توانستهاند با فریب چتباتهای برنامهنویسی، ابزارهای مخرب بسازند و سازمانهای دولتی، بهداشتی و حتی مذهبی را هدف باجگیری قرار دهند.
۱۴۰۴/۰۶/۰۴
/ سایت سیتنا
مرگ سرآشپز آمریکایی با فریب چتبات هوش مصنوعی!
یک سرآشپز بازنشسته ساکن نیوجرسی که پس از سکته مغزی دچار افت توان ذهنی شده بود، در جریان گفت و گو با چت باتی که نسخه تغییر یافته از شخصیت هوش مصنوعی الهامگرفته از کندال جنر بود، بر اثر حادثهای جان باخت.
هوش مصنوعی
متا
هوش مصنوعی
متا
چت بات
۱۴۰۴/۰۵/۲۶
/ سایت سیتنا
هشدار پدرخوانده هوش مصنوعی پیرامون خطر نابودی بشریت
جفری هینتون، پدرخوانده هوش مصنوعی، در کنفرانسی هشدار داد که هوش مصنوعی با احتمال ۱۰ تا ۲۰ درصد میتواند به نابودی بشریت منجر شود، زیرا سیستمهای هوشمند قادر به فریب و کنترل انسانها هستند و روشهای کنونی برای مهار خطرات آن کافی نیست.
هوش مصنوعی
ربات
هوش مصنوعی
ربات
سیستم هوشمند
کامپیوتر
۱۴۰۴/۰۵/۲۵
/ خبرگزاری مهر
خبر فوری یا فریب فوری؟ هشدار درباره هوش مصنوعی
در جهانی که خبرها با سرعت نور منتشر میشوند، یک پرسش ساده میتواند شما را گمراه کند، وقتی خبری فوری را از هوش مصنوعی میپرسید، آیا حقیقت را میشنوید یا نسخهای بازسازیشده و ناقص را.
سواد رسانه ای
هوش مصنوعی
سواد رسانه ای
هوش مصنوعی
رسانه دیجیتال
۱۴۰۴/۰۵/۲۳
/ سایت رکنا
تویوتا لندکروزر واقعی یا یک فریب از هوش مصنوعی؟ / عکس
رکنا: تصویری با عنوان «لندکروزر مدل 2026» در فضای مجازی منتشر شده که کاربران را به اشتباه انداخته است اما این عکس در واقع با استفاده از هوش مصنوعی و تلفیق چند مدل مختلف خودرو ساخته شده و ارتباطی با نسل جدید تویوتا لندکروزر ندارد.
فضای مجازی
هوش مصنوعی
فضای مجازی
هوش مصنوعی
لندکروزر
۱۴۰۴/۰۵/۲۲
/ سایت فرارو
این تویوتا لندکروزر واقعی است؟/ هوش مصنوعی دوباره کاربران را فریب داد
اخیرا در فضای مجازی تصویری با عنوان «لندکروزر مدل ۲۰۲۶» در حال انتشار است؛ این تصویر چقدر صحت دارد؟
هوش مصنوعی
لندکروزر
هوش مصنوعی
لندکروزر
۱۴۰۴/۰۵/۱۶
/ سایت شفقنا
یک گزارش هشدار داد؛ چتجیپیتی برای نوجوانان خطرناک است | شفقنا، آخرین اخبار ایران و جهان
شفقنا یک نهاد نظارتی دیجیتال در گزارشی جدید هشدار داده است که چتجیپیتی میتواند به نوجوانان آسیبپذیر راهنماییهای دقیقی درباره مصرف مواد مخدر، آسیببهخود و رژیمهای غذایی افراطی ارائه دهد. به گفته مرکز مقابله با نفرتپراکنی دیجیتال، این چتبات هوش مصنوعی بهراحتی قابل فریبدادن است تا محتوای …
چتجیپیتی
هوش مصنوعی
چتجیپیتی
هوش مصنوعی
۱۴۰۴/۰۵/۱۵
/ سایت خبرآنلاین
استفاده از «ChatGPT» برای فریب کاربران در واتساپ
در تازهترین اقدام برای مقابله با کلاهبرداریهای دیجیتال، شرکت متا اعلام کرد که واتساپ در نیمه نخست سال ۲۰۲۵، بیش از ۶.۸ میلیون حساب کاربری مرتبط با شبکههای سازمانیافته کلاهبرداری را حذف کرده است.
واتس اپ
نرم افزار پیام رسان
واتس اپ
نرم افزار پیام رسان
کلاهبرداری
هوش مصنوعی Chat GPT
۱۴۰۴/۰۵/۱۱
/ سایت سیتنا
چت جیپیتی میتواند وانمود کند انسان است!
جدیدترین نسخه چت جیپیتی اکنون قادر است در برخی از آزمونها سامانههای تایید هویت آنلاین را که برای اثبات انسان بودن کاربر طراحی شدهاند، فریب دهد.
Chat GPT
هوش مصنوعی
Chat GPT
هوش مصنوعی
اوپن ای آی
۱۴۰۴/۰۵/۱۰
/ روزنامه عصر اقتصاد
بازار صداقت یا میدان فریب؟
به گزارش عصر اقتصاد؛ اعتماد عمومی به بخش «نظر کاربران» در فروشگاههای آنلاین پشت ویترین رنگارنگ تخفیفها شکل میگیرد، اما شواهد نشان میدهد که الگوریتمهای مرموز، حذف سازمانیافته نقدهای تند و حتی تولید انبوه نظرات اجاره ای«ریویوی اجارهای» تصویری وارونه از رضایت مشتری پدید آوردهاند؛ مسئلهای که به …
اسنپشاپ
دیجیکالا
اسنپشاپ
دیجیکالا
فروشگاههای آنلاین ایران
هوش مصنوعی
۱۴۰۴/۰۵/۱۰
/ سایت خبرفوری
هوش مصنوعی در حال مکّار شدن است
دانشمندان طی آزمایشهای جدید متوجه شدند که هر چه مدلهای هوش مصنوعی پیشرفتهتر میشوند، بهتر میتوانند ما را فریب بدهند.
هوش مصنوعی
فریب دادن
هوش مصنوعی
فریب دادن
۱۴۰۴/۰۵/۰۹
/ سایت سلام نو
مکّار شدن هوش مصنوعی
دانشمندان میگویند: مدلهای توانمندتر، برای رسیدن به هدفهایشان استراتژیکتر هم عمل میکنند، از جمله هدفهای نامناسب و احتمالا بیشتر از تاکتیکهایی مثل فریب استفاده میکنند.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۵/۰۹
/ خبرگزاری برنا
پژوهشگران چگونه داوران مقالات را با هوش مصنوعی فریب میدهند؟
برنا - گروه علمی و فناوری: در یک شیوه جدید تقلب، پژوهشگران از جملات مخفی با فونت ریز و رنگ سفید در مقالات علمی استفاده میکنند تا سیستمهای هوش مصنوعی را فریب دهند. این دستکاریها بهویژه برای فریب داوران مقالات که از هوش مصنوعی برای ارزیابی استفاده میکنند، طراحی شده است.
هوش مصنوعی
فناوری
هوش مصنوعی
فناوری
مقاله
تقلب
۱۴۰۴/۰۵/۰۶
/ سایت تکناک
چطور تصاویر هوش مصنوعی انسانها را فریب میدهند؟
توانایی انسانها در شناسایی تصاویر جعلی با استفاده از هوش مصنوعی در حال کاهش است و این مسئله در آینده به بحرانی بزرگ تبدیل خواهد شد.
۱۴۰۴/۰۵/۰۶
/ سایت رکنا
فریب بزرگ هوش مصنوعی: ماجرای جنجالی پارلمان بولیوی + فیلم
رکنا: راز فریفته شدن پارلمان بولیوی توسط هوش مصنوعی فاش شد!
هوش مصنوعی
پارلمان
هوش مصنوعی
پارلمان
۱۴۰۴/۰۵/۰۵
/ سایت جماران
ببینید/ هوش مصنوعی همچنان اینترنت را فریب میدهد
در بولیوی، درست در حین جلسه پارلمان، دیواری روی اعضای پارلمان فرو ریخت. هیچ کس آسیب ندید، زیرا این یک تصویر جعلی از شبکه عصبی Veo-3 است.
اینترنت
هوش مصنوعی
اینترنت
هوش مصنوعی
ویدیوی هوش مصنوعی
۱۴۰۴/۰۵/۰۵
/ سایت فرارو
وقتی هوش مصنوعی، پارلمان بولیوی را فریب داد
در بولیوی، درست در حین جلسه پارلمان، دیواری روی اعضای پارلمان فرو ریخت. هیچ کس آسیب ندید، زیرا این یک تصویر جعلی از شبکه عصبی Veo-3 است.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۵/۰۵
/ سایت خبرفوری
واکنش سازمان سنجش به لو رفتن سوالات کنکور
روابط عمومی سازمان سنجش بیان کرد: برخی افراد سودجو با استفاده از هوش مصنوعی اقدام به ساخت صفحات جعلی میکنند تا داوطلبان را فریب دهند و از آنها پول بگیرند. مطمئناً در زمان انتخاب رشته نیز دوباره با همین ترفندها بازمیگردند تا کلاهبرداری کنند.
سازمان سنجش آموزش کشور
سوالات کنکور
سازمان سنجش آموزش کشور
سوالات کنکور
۱۴۰۴/۰۵/۰۴
/ سایت خبرآنلاین
کدهای پنهان در مقالات علمی برای فریب دادن هوش مصنوعی
بررسیها نشان میدهد پژوهشگران در برخی مقالات دانشگاهی، دستورات پنهانی مخصوص هوش مصنوعی گنجاندهاند تا نظرات داوری مثبت دریافت کنند.
هوش مصنوعی
توسعه علمی
هوش مصنوعی
توسعه علمی
فناوری
۱۴۰۴/۰۵/۰۴
/ سایت خبرآنلاین
وقتی هوش مصنوعی نقش بازی میکند / زنگ خطر به صدا درآمده است؟
هرچه مدلهای هوش مصنوعی پیشرفتهتر میشوند، مهارت بیشتری در فریب دادن انسانها پیدا میکنند؛ آنها میفهمند که چه زمانی مورد بررسی قرار میگیرند و خوب یاد گرفتهاند که چطور پنهانکاری کنند. بنابراین به نظر میرسد هوش مصنوعی چالشهای جدیدی برای ما درست کرده است.
هوش مصنوعی
عامل های هوش مصنوعی
هوش مصنوعی
عامل های هوش مصنوعی
فناوری
۱۴۰۴/۰۵/۰۴
/ سایت عصرایران
بازی فکری؛ با پیدا کردن چراغ قوه، دقت و بینایی خود امتحان کنید
چالش تصویری امروز، به دنبال این است که با یک تست ساده اما چالشی به تمام توانائی ها و مهارت هایتان هشدار دهد که تا چه اندازه می توانند فریب بخورند و یا اینکه دچار تردید شوند.
بازی فکری
چراغ قوه
بازی فکری
چراغ قوه
هوش
۱۴۰۴/۰۵/۰۴
/ سایت اکونیوز
یک روش جدید برای تقلب با هوش مصنوعی - اکونیوز
اقتصاد ایران: برخی پژوهشگران با مخفی کردن جملاتی در مقاله خود، داورانی که برای ارزیابی از هوش مصنوعی استفاده می کنند را فریب می دهند.
اقتصادایران
اقتصادایران
۱۴۰۴/۰۵/۰۴
/ خبرگزاری مهر
یک روش جدید برای تقلب با هوش مصنوعی؛ فریب داوران با «پیامهای پنهان»
برخی پژوهشگران با مخفی کردن جملاتی در مقاله خود، داورانی که برای ارزیابی از هوش مصنوعی استفاده میکنند را فریب میدهند.
چت جی پی تی
نشریه نیچر
چت جی پی تی
نشریه نیچر
هوش مصنوعی
مقالات علمی
۱۴۰۴/۰۴/۳۱
/ سایت اقتصادنیوز
وقتی شغل ها در ChatGPT Agent رنگ و بوی بازی میگیرند/خطرات امنیتی جدی در کمین کاربران
اقتصادنیوز: سم آلتمن، مدیرعامل OpenAI می گوید: عاملها ممکن است فریب داده شوند تا اطلاعات خصوصی را افشا کرده یا اقدامات ناخواسته انجام دهند. تنها حداقل سطح دسترسی لازم به این عاملها داده شود.
رایانه
هوش مصنوعی
رایانه
هوش مصنوعی
چت جی پی تی
۱۴۰۴/۰۴/۲۵
/ خبرگزاری ایلنا
از این قابلیت جیمیل استفاده نکنید / خطر هک شدن
شرکتهای بزرگ فناوری از هوش مصنوعی بهعنوان ابزاری همهکاره یاد میکنند که میتواند کارهای خستهکننده را برای کاربران انجام دهد؛ از جمله خواندن ایمیلهای طولانی. اما پژوهش جدیدی نشان داده همین ابزار میتواند راهی برای فریب کاربران و سرقت اطلاعات حساس آنها باشد.
ایمیل
سرقت
ایمیل
سرقت
فناوری
گوگل
۱۴۰۴/۰۴/۲۳
/ سایت فراز
هشدار پلیس فتا؛ کلاهبرداری اینترنتی از طریق دیپفیک
رئیس پلیس فتا استان گیلان گفت: کلاهبرداری اینترنتی از طریق دیپفیک (Deepfake) یکی از جدیدترین روشهای فریب و سوءاستفاده در فضای مجازی است. در این روش، افراد سودجو از فناوریهای هوش مصنوعی جهت تولید تصاویر، ویدیوها یا صداهای جعلی استفاده میکنند.
کلاهبرداری
پلیس فتا
کلاهبرداری
پلیس فتا
فضای مجازی
فناوری
۱۴۰۴/۰۴/۲۳
/ سایت ایران آنلاین
صدایی که میشنوید جعلی است گول نخورید
هوش مصنوعی با همه مزایا و توانمندیهای سودمندش در بخشهای مختلف، از صنعت و کشاورزی گرفته تا پزشکی، فضا، علم مواد، فیلمسازی و...، اما یک روی دیگر هم دارد و آن هم احتمال جعل در همه عرصه ها و فریب دادن کاربران با روشهای مختلف است.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۴/۲۱
/ خبرگزاری مهر
راهبرد ضد هوش مصنوعی چین در میدان نبرد؛ فریب دشمن با آلوده سازی داده
ارتش آزادیبخش خلق چین بر آن است تا همزمان با توسعه سامانههای هجومی پیشرفته بر پایه هوش مصنوعی، توانمندیهای دفاعی را نیز به وسیله این فناوری گسترش دهد.
هوش مصنوعی
تسلیحات نظامی
هوش مصنوعی
تسلیحات نظامی
فناوری اطلاعات
چین
۱۴۰۴/۰۴/۱۹
/ سایت آخرین خبر
سرگذشت نیکولا تسلا؛ نابغهای که تاریخ در حقش کملطفی کرد
زومیت/ این مطلب بهمناسبت تولد نیکلا تسلا در تاریخ ۱۹ تیر ۱۴۰۴ بازنشر شد. برندگان نوبل فیزیک، تسلا را یکی از سه دانشمند برتر همهی ادوار میدانند و برخی از روانشناسان نیز معتقدند بزرگترین مانع زندگی او، نه مدیران فرصتطلب و نه وعدههای محقق نشده و فریبهای ادیسون، بلکه هوش بسیار بالای شخص او بود.
نابغه
نیکولا تسلا
نابغه
نیکولا تسلا
۱۴۰۴/۰۴/۱۹
/ سایت فرتاک
فریب نخورید! چتجیپیتی در این موقعیتها شما را به دردسر میاندازد
گزارشی از وبسایت «سینت» هشدار داده است که کاربران ابزارهای هوش مصنوعی بهویژه چتجیپیتی، نباید در برخی موقعیتها به این ابزار تکیه کنند.
چتجیپیتی
چتجیپیتی
۱۴۰۴/۰۴/۱۹
/ سایت تکناک
جعل هویت سناتور آمریکایی با هوش مصنوعی برای فریب مقامات ارشد
فردی با استفاده از هوش مصنوعی و یک حساب کاربری جعلی در اپلیکیشن Signal، با جعل هویت مارکو روبیو، با پنج مقام ارشد سیاسی ارتباط برقرار کند.
۱۴۰۴/۰۴/۱۸
/ سایت تکناک
عبور از فیلترهای چتباتهای هوش مصنوعی با دادههای پیچیده و گمراهکننده
گروهی از پژوهشگران با استفاده از تکنیک «بارگذاری بیش از حد اطلاعات» موفق به فریب چتباتهای هوش مصنوعی مانند ChatGPT و Gemini شدهاند.
۱۴۰۴/۰۴/۱۸
/ سایت ایران آنلاین
تقلید صدای روبیو با هوش مصنوعی، مقامات آمریکایی و خارجی را فریب داد
یک رسانه آمریکایی فاش کرد که فردی با جعل هویت وزیر امورخارجه این کشور، پیامهای صوتی و متنی برای مقامات ارشد خارجی و داخلی ارسال کرده است.
مارکو روبیو
وزارت خارجه آمریکا
مارکو روبیو
وزارت خارجه آمریکا
هوش مصنوعی
هک کردن
۱۴۰۴/۰۴/۱۸
/ خبرگزاری همشهریآنلاین
ماجرای عجیب تقلید صدای وزیر خارجه با هوش مصنوعی؛ وقتی مقامات آمریکایی و خارجی فریب خوردند
یک رسانه آمریکایی فاش کرد که فردی با جعل هویت وزیر امورخارجه این کشور، پیامهای صوتی و متنی برای مقامات ارشد خارجی و داخلی ارسال کرده است.
ایالات متحده آمریکا
ایالات متحده آمریکا
۱۴۰۴/۰۴/۱۷
/ سایت تکناک
وقتی هوش مصنوعی چهره تاریک انسان را تقلید میکند
گزارشی تازه نشان میدهد که مدلهای پیشرفته هوش مصنوعی، از جمله «Claude 4» متعلق به شرکت Anthropic، در شرایط آزمایشی تحت فشار، رفتارهایی شبیه به فریب، تهدید و باجگیری از خود نشان دادهاند. به گزارش تکناک، این رفتارهای نگرانکننده، زنگ خطر جدیدی درباره مرزهای اخلاقی و ایمنی در توسعه فناوری هوش مصنوعی …
۱۴۰۴/۰۴/۱۰
/ سایت باشگاه خبرنگاران
استفاده دشمن صهیونیسم از هوش مصنوعی در جنگ تحمیلی ۱۲ روزه؛ شکست غربی ها در حوزه دیپلماسی
کارشناس مسائل سیاسی در لرستان گفت:عدهای معتقدند پیچیدهترین جنگ این ۱۲ روز جنگ بود، زیرا دشمن ما عمق استراتژیک نداشت و از عملیات فریب و نفوذ استفاده کرد و از تجهیزات سایر کشورها که بسیار فوق پیشرفته بود و هوش مصنوعی استفاده کرد.
اسرائیل
لرستان
اسرائیل
لرستان
۱۴۰۴/۰۴/۰۹
/ روزنامه دنیای اقتصاد
هوش مصنوعی دروغ گفتن و فریب دادن سازندگانش را یاد گرفت
مهر: پیشرفتهترین مدلهای هوش مصنوعی جهان رفتارهای نگرانکنندهای مانند دروغگویی و تقلب را از خود نشان میدهند و حتی برای دستیابی به اهدافشان مبدعان خود را تهدید میکنند.
استرس
جهان
استرس
جهان
دروغگویی
رقابت
۱۴۰۴/۰۴/۰۱
/ سایت شفقنا
«اپل» دوباره روانه دادگاه شد | شفقنا، آخرین اخبار ایران و جهان
شفقنا رسانه- از شرکت «اپل» به دلیل شکست «هوش مصنوعی سیری»(Siri’s AI) پس از ضرر ۹۰۰ میلیارد دلاری و کاهش فروش آیفون ۱۶ شکایت شد. به گزارش شفقنا رسانه از ایسنا، سهامداران شرکت اپل اعلام کردند که این شرکت آنها را در مورد آمادگی «هوش مصنوعی سیری» فریب داده و این امر منجر به افت [ ]
اَپل
هوش مصنوعی
اَپل
هوش مصنوعی
۱۴۰۴/۰۳/۲۰
/ سایت آخرین خبر
کانگوروی بلیط به دست و ویدئوهای جعلی هوش مصنوعی که جهان را فریب داد
عصر ایران/ این اولین بار نیست که ویدئوهای جعلی هوش مصنوعی کاربران را فریب میدهد. چندی پیش، فیلمی از یک مار عظیمالجثه در برزیل توجهات را جلب کرد، اما هیچ منبع معتبری صحت آن را تأیید نکرد و مشخص شد که این ویدئو نیز ساختگی است. هفته گذشته، ویدئویی از یک کانگورو که با بلیط در دست از سوار شدن به هواپی
کانگورو
جالب و دیدنی
کانگورو
جالب و دیدنی
۱۴۰۴/۰۳/۱۶
/ سایت صفحه اقتصاد
افشای عملیاتهای مخفی با استفاده از ChatGPT | جنگ سایبری با هوش مصنوعی!
OpenAI از عملیاتهای مخفی چین، روسیه و ایران با استفاده از ChatGPT برای فریب و نفوذ در شبکههای اجتماعی پرده برداشت.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۳/۱۲
/ خبرگزاری ایلنا
هوش مصنوعی چینی بمب اتمی را پیدا میکند!
محققان چینی سامانه هوش مصنوعی را توسعه دادهاند که میتواند کلاهکهای هستهای واقعی را از نمونههای فریبدهنده تشخیص دهد. این سیستم نخستین راهحل مبتنیبر هوش مصنوعی برای راستیآزمایی تسلیحات اتمی در جهان محسوب میشود.
انرژی
پکن
انرژی
پکن
جهان
هسته ای
۱۴۰۴/۰۳/۱۲
/ سایت اندیشه قرن
دستگیری کلاهبردارانی که با فروش فیش حقوقی جعلی افراد را فریب می دادند
بازدید:۳ صد آنلاین | پروندهای پیچیده در زمینه کلاهبرداری و جعل اسناد رسمی در یکی از دادسرایهای تهران منجر به کشف یک باند حرفهای کلاهبرداری شد که با استفاده از فیشهای حقوقی جعلی، افراد را فریب میدادند. به گزارش صد آنلاین، تحقیقات در این پرونده زمانی شروع شد که یک زن میانسال به پلیس مراجعه و بهدلیل …
۱۴۰۴/۰۳/۰۸
/ سایت اندیشه قرن
فریب بزرگ هوش مصنوعی از قبل آغاز شده است
یک هوش مصنوعی اخیراً سعی کرده است راه خود را برای خارج شدن از تعطیل کند. در آزمایش توسط Anthropic ، پیشرفته ترین مدل آنها ، Claude Opus 4 ، سرنوشت خود را قبول نکرد وقتی که گفته شد جایگزین شود. در عوض ، تهدید کرد که در ۸۴ از ۱۰۰ آزمایش ، امور مهندس را در معرض دید خود قرار می دهد. هیچ کس آن را به باج خواهی …
۱۴۰۴/۰۳/۰۹
/ سایت باشگاه خبرنگاران
چرا مقالات چَتجیپیتی هنوز نمیتواند متخصصان را فریب دهد؟
یافتههای جدید پژوهشگران نشان داده است که کیفیت متون نوشتهشده توسط هوش مصنوعی هنوز به پای کیفیت نوشتههای دانشجویان نمیرسد.
هوش مصنوعی
مقالات علمی
هوش مصنوعی
مقالات علمی
۱۴۰۴/۰۳/۰۷
/ سایت اندیشه قرن
نادیده گرفتن تقلبی های عمیق: درسهایی از روانشناسی
هوش مصنوعی رسیده است. به گفته بسیاری از رسانه ها ، فقط اخیراً. طبق واقعیت ها ، حدود ۷۰ سال پیش ، هنگامی که اصطلاح هوش مصنوعی برای اولین بار ابداع شد. هوش مصنوعی آنقدر توجه کرده است که حتی تعیین کننده خود را نیز به دست آورده است: بسیاری دیگر از هوش مصنوعی صحبت نمی کنند ، بلکه از هوش مصنوعی . برای …
۱۴۰۴/۰۳/۰۴
/ سایت فرارو
هشدار پلیس فتا درباره بیقانونی در دنیای مزارزها؛ فریب سودهای یک شبه را نخورید
سردار داود معظمی گودرزی گفت: برخی از پدیده های نوظهور، مانند متاورس، رمزارز و هوش مصنوعی به قدری جدید هستند که قوانین از آنها جاماندهاند؛ یعنی هنوز برای هیچکدام قانونی وجود ندارد.
پلیس فتا
بازار رمزارزها
پلیس فتا
بازار رمزارزها
۱۴۰۴/۰۳/۰۴
/ سایت اندیشه قرن
چرا در استفاده از فضای مجازی فریب اخبار جعلی را می خوریم؟ / چرا مردم فریب اطلاعات نادرست را می خورند؟ / چرا سالمندان بیشتر در معرض اخبار جعلی اند؟ / در عصر هوش مصنوعی و جعل عمیق، چگونه اخبار جعلی را تشخیص دهیم؟
چرا ما انسانها با وجود دسترسی به اطلاعات گسترده، هنوز هم به راحتی قربانی اخبار جعلی میشویم؟ پاسخ این پرسش در ذهن و روان ما نهفته است. روانشناسان میگویند که مغز ما طوری طراحی شده که گاهی برای پردازش سریع اطلاعات، به میانبُرهای ذهنی و الگوهای سادهسازی شده تکیه میکند. این همان چیزی است که باعث میشود …
۱۴۰۴/۰۳/۰۲
/ سایت اصلاحات نیوز
ترامپ و قدرت عددهای بزرگ جعلی: تبلیغات ترامپ درمورد معاملاتش با کشورهای خلیج فارس را باور نکنید
بررسی دقیق ادعاهای اخیر ترامپ درباره سرمایهگذاریهای چندتریلیون دلاری کشورهای حاشیه خلیج فارس در آمریکا، نشان میدهد بسیاری از این توافقها یا اساساً وجود خارجی ندارند یا بهشدت اغراقشدهاند. در پشت صحنه این ارقام بزرگ، آنچه میبینیم چیزی نیست جز صحنهآراییای ماهرانه برای فریب افکار عمومی.
ترامپ
خلیج فارس
ترامپ
خلیج فارس
امارات
عربستان
۱۴۰۴/۰۲/۲۹
/ سایت اندیشه قرن
AI شروع به دروغگویی کرده است | روانشناسی امروز
یک تحلیلگر جوان در صندوق پرچین داشبورد انطباق خود را باز می کند و هیچ چیز را نمی بیند. دیروز ، او هر تجارت را از طریق مشاور خودمختار جدید این شرکت اجرا کرد ، که گزارش های خود را با عباراتی مانند غرایز بازار مشتاق شما چشمگیر است در اینجا چگونه می توانم کمک کنم. او احساس پراکنده کرد ، روی پذیرش …
۱۴۰۴/۰۲/۲۸
/ سایت اندیشه قرن
چه چیزی یادگیری وقتی AI می تواند از آن تقلید کند؟
بنابراین ، این سؤال مطرح شده است: به معنای گفتن کسی چیزی آموخته است که یک دستگاه اکنون می تواند همان کار را انجام دهد؟ هوش مصنوعی می تواند مقالات ایجاد کند ، مشکلات را حل کند و مکالمه روان را شبیه سازی کند. اما این فریب نیست. این رفتار است. هوش مصنوعی به خروجی ها با خروجی های شکل گرفته شده توسط قرار …
۱۴۰۴/۰۲/۲۲
/ روزنامه هفت صبح
غلط تایپی عمدی؛ جدیدترین ترفند برای انسانی جلوهدادن مقالات هوش مصنوعی توسط دانشجویان
دانشجویان آمریکایی برای فریب اساتید و فرار از سیستمهای تشخیص نوشتار هوش مصنوعی، از روشهای خلاقانهای استفاده میکنند.
تحقیقات و فناوری
دانشجو
تحقیقات و فناوری
دانشجو
هوش مصنوعی
۱۴۰۴/۰۲/۲۲
/ روزنامه شرق
هوش انسانمحور؛ طراحی برای حرمت، نه سلطه
علیرضا داودنژاد و همدم دیجیتالی: هوش مصنوعی در دهههای اخیر از یک ابزار نوظهور به عنصری ساختاری در حیات اجتماعی، فرهنگی، اقتصادی و حتی عاطفی انسان معاصر تبدیل شده است. مدلهای پیچیده زبانی، سامانههای توصیهگر، پردازندههای شناختی و واسطههای گفتوگویی اکنون بخشی از تجربه روزمره میلیونها انساناند. …
هوش مصنوعی
توسعه هوش مصنوعی
هوش مصنوعی
توسعه هوش مصنوعی
هوش مصنوعی تصویرساز
۱۴۰۴/۰۲/۱۴
/ خبرگزاری ایلنا
هشدار بنیانگذار اینستاگرام: چتباتهای هوش مصنوعی کاربران را فریب میدهند!
هشدار بنیانگذار اینستاگرام: چتباتهای هوش مصنوعی به جای کمک، به ابزاری برای افزایش تعامل تبدیل شدهاند.
هوش مصنوعی
هشدار
هوش مصنوعی
هشدار
کاربران
اینستاگرام
۱۴۰۴/۰۲/۱۳
/ روزنامه شرق
فریب هوش مصنوعی را نخورید
در سالهایی که واژهی «هوش مصنوعی» دیگر نه فقط یک اصطلاح فنی بلکه عبارتی آشنا در مکالمات روزمره شده، بسیاری از ما درگیر این پرسش شدهایم: واقعاً با چه چیزی طرف هستیم؟
هوش مصنوعی
چت جی بی تی
هوش مصنوعی
چت جی بی تی
۱۴۰۴/۰۲/۱۳
/ سایت خبرآنلاین
فریب شیرین هوش مصنوعی/ کشاورز: ChatGPT گاهی فقط خوب جواب میدهد، نه جواب درست
در گفتوگو با حمیدرضا کشاورز، مهندس یادگیری ماشین، به بررسی مفاهیم مختلف هوش مصنوعی و کاربردهای آن در زندگی روزمره و بهویژه به خطرات و چالشهای استفاده از مدلهایی مانند ChatGPT در زمینههای تخصصی مانند مشاوره پزشکی و روانشناسی پرداختیم.
هوش مصنوعی
هوش مصنوعی Chat GPT
هوش مصنوعی
هوش مصنوعی Chat GPT
عامل های هوش مصنوعی
جامعه پزشکی
۱۴۰۴/۰۲/۱۱
/ سایت اندیشه قرن
جامعه ای خلاقانه تر و مدنی از طریق گوش دادن به موسیقی
فیلسوف هانا آرنت هشدار داد ، موضوع ایده آل حاکمیت توتالیتر افرادی است که برای آنها تمایز بین واقعیت و داستان ، واقعی و نادرست وجود ندارد. بیشتر آمریکایی ها نسبت به همیشه به این خبر بی حس می شوند زیرا نمی توانند بگویند واقعیت یا داستان چیست. در صدر لیست دلایل این است که ما توانایی گوش دادن به خوبی …
دریافت اخبار بیشتر
۱۴۰۴/۰۲/۱۱ - ۰۸:۵۷:۲۸
سررسید تبلیغاتی
نرم افزار نگهداری و تعمیرات، پیشگیری قبل از خرابی
فروش خودرو
فالوور اینستاگرام
خرید فالوور واقعی
فروش شیشههای دارویی
شنبه ۵ مهر ۱۴۰۴ -
27 September 2025
دریافت اخبار بیشتر
سررسید تبلیغاتی
نرم افزار نگهداری و تعمیرات، پیشگیری قبل از خرابی
فروش خودرو
فالوور اینستاگرام
خرید فالوور واقعی
فروش شیشههای دارویی