VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
شنبه ۹ اسفند ۱۴۰۴ -
28 February 2026
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
تصاویر جعلی
هوش مصنوعی
پلیس فتا
تصاویر جعلی
۳ روز قبل / ۱۴۰۴/۱۲/۰۵ / خبرگزاری دانشجو
تقابل دانشجو و دانشجونما در دانشگاهها و پاسخ به سه شایعهِ فضای مجازی
محمدحسین لک، خبرنگار در «راس یک»:اخیرا در دانشگاهها شاهد تقابل بین دانشجویان و عدهای دانشجونما و به تبع آن اخبار و تصاویر اشتباه و شایعهپراکنی از سوی برخی رسانهها و شبه رسانهها بودیم.اولین شایعه مربوط به شلوغیهای دانشگاه شریف و انتشار فیلمی از ابوالحسنی از اساتید دانشگاه با تیتر کاملا متفاوت بود. …
برنامه راس یک
برنامه راس یک
۴ روز قبل / ۱۴۰۴/۱۲/۰۴ / سایت درلحظه
تصاویر حضور یگان ویژه در دانشگاهها جعلی و ساختگی اعلام شد
مروری کوتاه بر خبر دفتر سخنگوی فراجا با انتشار اطلاعیهای، شایعات مربوط به حضور یگانهای ویژه در دانشگاهها را تکذیب و تصاویر منتشر شده را جعلی خواند. تکذیب رسمی فراجا بر اساس گزارش همشهریآنلاین، دفتر سخنگوی فراجا در اطلاعیهای اعلام کرد: «برابر بررسی بهعمل آمده طی دو روز گذشته واحدهای یگان ویژه یا …
۱۴۰۴/۱۲/۰۴
/ سایت درلحظه
تکذیب حضور یگان ویژه در دانشگاهها؛ تصاویر منتشر شده جعلی و ساخته هوش مصنوعی است؟
مروری کوتاه بر خبر پلیس این اخبار را شایعهای جعلی و فاقد استناد خبری اعلام کرده است. سخنگوی فرماندهی کل انتظامی کشور هرگونه حضور نیروهای پلیس و یگان ویژه فراجا در دانشگاههای کشور را رد کرده است. بر اساس اعلام دفتر سخنگوی پلیس، بررسیهای انجامشده نشان میدهد که طی دو روز گذشته، واحدهای یگان ویژه
۱۴۰۴/۱۲/۰۴
/ خبرگزاری همشهریآنلاین
واکنش به تصاویر حضور یگان ویژه در دانشگاهها
دفتر سخنگوی فراجا حضور یگان ویژه و امداد در دانشگاهها را شایعه جعلی و تصاویر منتشر شده را ساختگی خواند.
فراجا
پارتیشن شیشه ای
فراجا
پارتیشن شیشه ای
دانلود آهنگ جدید
خرید نهال گردو
۱۴۰۴/۱۲/۰۴
/ سایت کولاک
واکنش به تصاویر حضور یگان ویژه در دانشگاهها - مجله اینترنتی کولاک
دفتر سخنگوی فراجا حضور یگان ویژه و امداد در دانشگاهها را شایعه جعلی و تصاویر منتشر شده را ساختگی خواند.
۱۴۰۴/۱۲/۰۴
/ سایت دیدارنیوز
سخنگوی فراجا: حضور یگان ویژه در دانشگاهها شایعه جعلی و تصاویر با «هوش مصنوعی» بود
دفتر سخنگوی فراجا در اطلاعیهای اعلام کرد: برابر بررسی بهعمل آمده طی دو روز گذشته واحدهای یگان ویژه یا یگان امداد پلیس در هیچکدام از دانشگاههای کشور حضور...
فراجا
دانشگاه
فراجا
دانشگاه
اعتراضات دانشجویی
۱۴۰۴/۱۲/۰۴
/ سایت درلحظه
ادعای حضور یگان ویژه در دانشگاهها؛ شایعه یا واقعیت؟
مروری کوتاه بر خبر دفتر سخنگوی فراجا با انتشار اطلاعیهای، اخبار مربوط به حضور یگان ویژه یا یگان امداد پلیس در دانشگاههای کشور را رد کرده است. این دفتر این اخبار را شایعهای جعلی و فاقد استناد خبری دانسته و تصاویر منتشر شده در این رابطه را نیز ساختگی اعلام کرده است. تکذیب رسمی فراجا
۱۴۰۴/۱۲/۰۴
/ سایت اعتماد آنلاین
دفتر سخنگوی فراجا: حضور یگان ویژه و امداد در دانشگاهها شایعه جعلی است
دفتر سخنگوی فراجا حضور یگان ویژه و امداد در دانشگاهها را شایعه جعلی و تصاویر منتشر شده را ساختگی خواند.
یگان ویژه
فراجا
یگان ویژه
فراجا
۱۴۰۴/۱۲/۰۴
/ خبرگزاری دانشجو
حضور یگان ویژه و امداد در دانشگاهها شایعه جعلی است
دفتر سخنگوی فراجا حضور یگان ویژه و امداد در دانشگاهها را شایعه جعلی و تصاویر منتشر شده را ساختگی خواند.
سردار سعید منتظرالمهدی
سخنگوی فراجا
سردار سعید منتظرالمهدی
سخنگوی فراجا
یگان ویژه
دانشگاه شریف
۱۴۰۴/۱۲/۰۳
/ سایت انتخاب
فراجا: طی دو روز گذشته واحدهای یگان ویژه یا یگان امداد پلیس در هیچکدام از دانشگاههای کشور حضور نداشتهاند / تصاویر منتشر شده ساختگی هستند
دفتر سخنگوی فراجا اعلام کرد؛ برابر بررسی بهعمل آمده طی دو روز گذشته واحدهای یگان ویژه یا یگان امداد پلیس در هیچکدام از دانشگاههای کشور حضور نداشته و این شایعه جعلی و فاقد استناد خبری است.
۱۴۰۴/۱۲/۰۳
/ سایت فرهیختگان
منوتو هم مثل اینترنشنال، گاف خود را پاک کرد
بعدازظهر امروز شبکه منوتو فیلمی جعلی و قدیمی از مقابل سردر دانشگاه تهران منتشر کرد و مدعی شد میان دانشجویان و نیروهای انتظامی درگیری رخ داده است. ???? اما تنها بعد از چند ساعت و مشخصشدن واقعیت، فیلم ادعایی منوتو جعلی از آب در آمد و این شبکه مجبور شد گاف خود را از کانالش پاک کند. ???? روز گذشته …
ایران اینترنشنال
منوتو
ایران اینترنشنال
منوتو
دانشگاه تهران
۱۴۰۴/۱۲/۰۳
/ سایت خبرفوری
سودآوری آزار؛ چگونه فناوری علیه زنان شد؟ | تولید تصاویر جنسی جعلی تا کی ادامه دارد
در سالهای اخیر، همزمان با گسترش شتابزده ابزارهای هوش مصنوعی، نگرانیها درباره پیامدهای اجتماعی و انسانی این فناوری نیز بهطور چشمگیری افزایش یافته است.
زنان
دیپ فیک
زنان
دیپ فیک
۱۴۰۴/۱۲/۰۲
/ سایت رکنا
عکس ها / اولین ازدواج مهرانه مهین ترابی در این سن و سال با حضور مهراوه شریفی نیا، آزیتا حاجیان و سحر دولتشاهی / داماد چقدر چهره جالبی داره !
ماجرای ازدواج مهرانه مهین ترابی، بازیگر محبوب سینما و تلویزیون، با انتشار تصاویر جعلی عروسی که توسط هوش مصنوعی ساخته شده، خبرساز شد و کاربران را به واکنش واداشت. آیا این شایعه حقیقت دارد؟
بازیگر ایرانی
مهرانه مهین ترابی
بازیگر ایرانی
مهرانه مهین ترابی
۱۴۰۴/۱۱/۲۱
/ سایت شفقنا
دکتر حسین امامی: در عصر دیپفیک، تصویر از جایگاه داور به جایگاه متهم منتقل شده است/ خطر اصلی دیپفیک دروغگویی نیست؛ بیاثر شدن حقیقت است
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
جعل عمیق
حقیقتسنجی رسانهای
۱۴۰۴/۱۱/۱۹
/ سایت فرتاک
هشدار یونیسف: سوءاستفاده جنسی از کودکان با هوش مصنوعی
یونیسف با انتشار هشداری جدی اعلام کرد گسترش استفاده نادرست از هوش مصنوعی، بهویژه در تولید تصاویر و ویدئوهای جعلی، به تهدیدی روبهافزایش علیه امنیت و کرامت کودکان تبدیل شده است.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۱۱/۱۷
/ سایت جماران
هشدار یونیسف درباره تهدید هوش مصنوعی علیه کودکان
یونیسف تأکید کرده تولید تصاویر و ویدیوهای جعلی جنسی از کودکان با هوش مصنوعی باید صراحتاً جرمانگاری شود.
هوش مصنوعی
یونیسف
هوش مصنوعی
یونیسف
حقوق کودکان
۱۴۰۴/۱۱/۱۶
/ سایت اقتصادنیوز
استرداد کلاهبردار فراری به کشور | ترفند این متهم برای کلاهبرداری از افراد
اقتصادنیوز: این متهم کلاهبردار ، با تظاهر به فعالیت در حوزه اخذ اقامت دائم کشورهای اروپایی، مبادرت به جلب اعتماد افراد کرده و از طریق ارائه تصاویر جعلی موجب فریب شاکی را فراهم آورده است.
پلیس
کلاهبرداری
پلیس
کلاهبرداری
۱۴۰۴/۱۱/۱۶
/ سایت فرارو
تهدید هوش مصنوعی علیه کودکان
این نهاد میگوید با افزایش نگرانکننده تصاویر و ویدئوهای جعلی تولیدشده با هوش مصنوعی که کودکان را جنسیسازی میکند، زنگ خطر به صدا درآمده است.
کودک
هوش مصنوعی
کودک
هوش مصنوعی
۱۴۰۴/۱۱/۱۶
/ سایت آخرین خبر
بازگرداندن کلاهبردار مدعی اقامت در اروپا با اعلان قرمز اینترپل
تسنیم/ رئیس پلیس بینالملل فراجا از دستگیری و استرداد کلاهبردار اقامت اروپا با اعلان قرمز اینترپل خبر داد. سرهنگ نقی محمودی با تشریح جزئیات این پرونده گفت: متهم با تظاهر به فعالیت تخصصی در زمینه اخذ اقامت دائم کشورهای اروپایی و ارائه تصاویر و مستندات جعلی، اعتماد شاکی را جلب کرده و در مرحله نخست مبل
کلاهبردار
پلیس اینترپل
کلاهبردار
پلیس اینترپل
۱۴۰۴/۱۱/۱۶
/ سایت شفقنا
یک دکترای هوش مصنوعی: دیپفیک میتواند پیامدهای اجتماعی، سیاسی و رسانهای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت شود
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
امنیت اطلاعات
جعل عمیق
۱۴۰۴/۱۱/۱۲
/ سایت صفحه اقتصاد
روابط عمومی نیروگاه نکا انتشار اخبار و تصاویر جعلی درباره انفجار را رد کرد
روابط عمومی نیروگاه نکا اعلام کرد خبری که در برخی رسانههای خارجی و معاند درباره انفجار در این نیروگاه منتشر شد، کذب است و تصویر همراه خبر مربوط به حادثهای در نیروگاه اصفهان در اردیبهشت ۱۴۰۲ بوده است.
نیروگاه
رسانه آمریکایی
نیروگاه
رسانه آمریکایی
۱۴۰۴/۱۱/۱۲
/ سایت شفقنا
ضیایی پرور: ارزشگذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد/وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر برای تشخیص واقعیت کفایت نمیکند
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
آموزش رسانهای
اعتماد به تصویر
آموزش رسانهای
اعتماد به تصویر
جعل عمیق
دیپفیک
۱۴۰۴/۱۱/۱۰
/ سایت شفقنا
معاون آموزش انجمن سواد رسانهای ایران: دیپفیک علاوه بر یک فناوری، چالشی شناختی و رسانهای است/ جامعهای که دیگر به تصویر هم اعتماد ندارد، در برابر جنگ روانی بسیار آسیبپذیر است
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اعتبار رسانه
اعتماد عمومی
اعتبار رسانه
اعتماد عمومی
امنیت اطلاعات
جنگ روانی
۱۴۰۴/۱۱/۰۹
/ سایت شفقنا
یک پژوهشگر حوزه هوش مصنوعی: با گسترش دیپ فیک اتکای صرف به مشاهده برای اعتبارسنجی یک محتوا ضعیف شده است/ کاهش اعتبار تصویر و ویدئو پیامدهای سیاسی و امنیتی جدی به همراه دارد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق حرفهای رسانه
اعتماد عمومی به رسانه
اخلاق حرفهای رسانه
اعتماد عمومی به رسانه
امنیت اطلاعات
جعلیسازی ویدئو
۱۴۰۴/۱۱/۰۸
/ سایت جماران
نقض حریم خصوصی
به گزارش جماران، کمیسیون اروپا تحقیقاتی را درباره پلتفرم رسانه اجتماعی ایکس، متعلق به ایلان ماسک، به دلیل تولید تصاویر جعلی و غیرقانونی و همچنین غیراخلاقی
کمیسیون اروپا
نقض حریم خصوصی
کمیسیون اروپا
نقض حریم خصوصی
ایکس
گلناز سادات غفاری
۱۴۰۴/۱۱/۰۷
/ سایت شفقنا
چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیکها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۰/۲۱
/ خبرگزاری تسنیم
توسل رژیم صهیونیستی به هوش مصنوعی برای جعل اخبار ایران - تسنیم
شبکه فرانس انفو از انتشار تصاویر جعلی از اغتشاشات ایران از سوی رژیم صهیونیستی خبر داد.
۱۴۰۴/۱۰/۱۸
/ سایت عصرایران
کدام تصاویر ربودن مادورو که میلیون ها بار هم دیده شدند، جعلی است؟ (+عکس)
ویژگی متفاوت این موج از اطلاعات جعلی، بیش از آنکه به ابعاد و دامنه انتشار آن مربوط باشد، به این نکته بازمیگردد که افراد بسیاری، حتی چهرههای شناختهشده و عمومی، محتواهای نادرست را باور کردند و فریب آن را خوردند.
تصاویر جعلی
مادورو
تصاویر جعلی
مادورو
ونزوئلا
هوش مصنوعی
۱۴۰۴/۱۰/۱۸
/ سایت عصرایران
کدام تصاویر ربودن مادورو که میلیون ها بار هم دیده شدند، جعلی بود؟ (+عکس)
ویژگی متفاوت این موج از اطلاعات جعلی، بیش از آنکه به ابعاد و دامنه انتشار آن مربوط باشد، به این نکته بازمیگردد که افراد بسیاری، حتی چهرههای شناختهشده و عمومی، محتواهای نادرست را باور کردند و فریب آن را خوردند.
تصاویر جعلی
مادورو
تصاویر جعلی
مادورو
ونزوئلا
هوش مصنوعی
۱۴۰۴/۱۰/۱۷
/ خبرگزاری ایسکانیوز
عبور از مرز واقعیت و جعل؛ هشدار قرمز پلیس فتا کرمان درباره فریبهای هوش مصنوعی
رئیس پلیس فتا استان کرمان با هشدار نسبت به موج جدید تولید محتواهای جعلی (دیپفیک) علیه شخصیتهای نظامی و رسمی، تأکید کرد که طبق قانون، تولید و حتی بازنشر این تصاویر و ویدئوها جرم تلقی شده و پروندههای متخلفان بدون اغماض راهی مراجع قضایی میشود.
کرمان
اینستاگرام
کرمان
اینستاگرام
۱۴۰۴/۱۰/۱۶
/ خبرگزاری مهر
پلیس فتا کرمان: مراقب ویدئوهای جعلی هوش مصنوعی باشید
کرمان- رئیس پلیس فتا کرمان گفت: صفحاتی در شبکههای اجتماعی اینستاگرام با سوءاستفاده از هوش مصنوعی، اقدام به ساخت تصاویر و ویدئوهای کاملاً جعلی منتسب به نیروهای نظامی کرده اند.
پلیس فتا
کرمان
پلیس فتا
کرمان
هوش مصنوعی
اینستاگرام
۱۴۰۴/۱۰/۱۶
/ سایت سیتنا
اتحادیه اروپا: تصاویر نیمه برهنه گروک، غیرقانونی است
کمیسیون اروپا تصاویر جعلی نیمه برهنه زنان و کودکان را که با هوش مصنوعی «گروک» در شبکه اجتماعی ایکس تولید و منتشر میشوند، «غیرقانونی، هولناک و چندشآور» خواند.
اتحادیه اروپا
هوش مصنوعی
اتحادیه اروپا
هوش مصنوعی
ایلان ماسک
گروک
۱۴۰۴/۱۰/۱۶
/ سایت پارسینه
پرنسس انگلیس در تله «تصاویر برهنه» گرفتار شد
انتشار گزارشهایی درباره تولید و انتشار تصاویر جعلی و دستکاریشده از پرنسس کاترین، دوشس ولز با استفاده از هوش مصنوعی «گراک» بحثهای جدی درباره مرزهای اخلاقی فناوریهای نوین و مسئولیت پلتفرمهای دیجیتال را به صدر توجه رسانهها کشانده است.
هوش مصنوعی
پرنسس انگلیس
هوش مصنوعی
پرنسس انگلیس
پرنسس کاترین
دوشس ولز
۱۴۰۴/۱۰/۱۶
/ سایت خبرفوری
پرنسس انگلیس در تله «تصاویر برهنه» گرفتار شد
انتشار گزارشهایی درباره تولید و انتشار تصاویر جعلی و دستکاریشده از پرنسس کاترین، دوشس ولز با استفاده از هوش مصنوعی «گراک» بحثهای جدی درباره مرزهای اخلاقی فناوریهای نوین و مسئولیت پلتفرمهای دیجیتال را به صدر توجه رسانهها کشانده است.
رسوایی
برهنه
رسوایی
برهنه
ایلان ماسک
گروک
۱۴۰۴/۱۰/۱۵
/ خبرگزاری ایسنا
رونمایی از رباتهای بامزه/تصاویر جعلی رئیسجمهور ونزوئلا/تغییر زمان امتحانات دانشگاه آزاد
سرویس علمی و دانشگاهی ایسنا در روز دوشنبه ۱۵ دی ۱۴۰۴ میزبان اخبار گوناگونی در حوزههایی همچون علم، پژوهش، فضا، دانشبنیانها، فناوری، هوش مصنوعی و دانشگاه بود که در اینجا قصد داریم نگاهی به خلاصهای از این اخبار بیندازیم.
۱۴۰۴/۱۰/۱۵
/ سایت تجارت نیوز
سیل تصاویر جعلی از ربوده شدن مادورو!
پس از آنکه در صبح سوم ژانویه ۲۰۲۶، دونالد ترامپ اعلام کرد نیروهای آمریکایی نیکلاس مادورو را دستگیر کردهاند، از میان تصاویری که ادعا میکردند لحظۀ دستگیری رئیس جمهور ونزوئلا را نشان میدهند، یکی بیش از همه مردم را فریب داد و میلیونها نفر آن را باور کردند. غافل از اینکه در عصری که هوش مصنوعی میتواند …
مادورو
مادورو
۱۴۰۴/۱۰/۱۵
/ سایت اعتماد آنلاین
تصاویر جعلی از رئیس جمهور ربودهشده که میلیونها نفر را فریب داد
صبح سوم ژانویه ۲۰۲۶، ترامپ اعلام کرد که نیروهای آمریکایی، مادورو و همسرش را در عملیاتی به نام Southern Spear دستگیر کردند.
رئیسجمهور
مادورو
رئیسجمهور
مادورو
۱۴۰۴/۱۰/۱۵
/ خبرگزاری همشهریآنلاین
تصاویر جعلی از مادورو که میلیونها نفر را فریب داد
صبح سوم ژانویه ۲۰۲۶، ترامپ اعلام کرد که نیروهای آمریکایی، مادورو و همسرش را در عملیاتی به نام Southern Spear دستگیر کردند.
ونزوئلا
دونالد ترامپ
ونزوئلا
دونالد ترامپ
ونزوئلا
دونالد ترامپ
۱۴۰۴/۱۰/۱۵
/ خبرگزاری ایسنا
تصاویر جعلی از رئیس جمهور ربودهشده که میلیونها نفر را فریب داد
پس از آنکه در صبح سوم ژانویه ۲۰۲۶، دونالد ترامپ اعلام کرد نیروهای آمریکایی نیکلاس مادورو را دستگیر کردهاند، از میان تصاویری که ادعا میکردند لحظۀ دستگیری رئیس جمهور ونزوئلا را نشان میدهند، یکی بیش از همه مردم را فریب داد و میلیونها نفر آن را باور کردند. غافل از اینکه در عصری که هوش مصنوعی میتواند …
هوش مصنوعی
تصویر جعلی از مادورو
هوش مصنوعی
تصویر جعلی از مادورو
نیکولاس مادورو
دستگیری نیکولاس مادورو
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
یک پژوهشگر حوزه سواد رسانهای: جعل عمیق، متهم اصلی مرگ حقیقت در عصر پسا حقیقت است/ در حوزه رسانه، جعل عمیق کار راستیآزمایی را پیچیدهتر کرده است/ اتاقهای خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد عمومی
اخلاق رسانهای
اعتماد عمومی
امنیت اطلاعاتی
جعل عمیق
۱۴۰۴/۱۰/۱۵
/ سایت خبرآنلاین
چطور چهرههای ساخته شده با هوش مصنوعی را تشخیص دهیم؟
هوش مصنوعی روزبهروز در تولید چهرههای انسانی واقعگراتر میشود؛ تا جایی که حتی «اَبَرتشخیصدهندهها»، یعنی همان افرادی که توانایی فوقالعاده در تشخیص چهره دارند نیز در شناسایی تصاویر جعلی عملکردی چشمگیر نداشتند. با این حال، یک پژوهش تازه نشان میدهد که آموزش کوتاهمدت میتواند این ضعف را تا حد قابلتوجهی …
فناوری تشخیص چهره
هوش مصنوعی
فناوری تشخیص چهره
هوش مصنوعی
عامل های هوش مصنوعی
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
چگونه در دام تصاویر جعلی نیفتیم؟
شفقنا رسانه- امروزه تصاویر جعلی فقط به شبکههای اجتماعی محدود نیستند و میتوان آنها را در وبسایتهای خبری، آگهیهای تبلیغاتی و حتی پروندههای حقوقی مشاهده کرد. همین موضوع باعث شده نیاز به تقویت سواد بصری دیجیتال بیش از گذشته احساس شود و کاربران یاد بگیرند چگونه تصاویر مبتنی بر هوش مصنوعی را تشخیص …
تصاویر جعلی
دیپ فیک
تصاویر جعلی
دیپ فیک
۱۴۰۴/۱۰/۱۵
/ سایت سیتنا
چگونه در دام تصاویر جعلی نیفتیم؟
امروزه تصاویر جعلی فقط به شبکههای اجتماعی محدود نیستند و میتوان آنها را در وبسایتهای خبری، آگهیهای تبلیغاتی و حتی پروندههای حقوقی مشاهده کرد. همین موضوع باعث شده نیاز به تقویت سواد بصری دیجیتال بیش از گذشته احساس شود و کاربران یاد بگیرند چگونه تصاویر مبتنی بر هوش مصنوعی را تشخیص دهند.
تصاویر جعلی
هوش مصنوعی
تصاویر جعلی
هوش مصنوعی
فناوری
تصاویر
۱۴۰۴/۱۰/۱۴
/ سایت تابناک
شناسایی عوامل انتشار اخبار جعلی در اینستاگرام
پلیس تهران بزرگ از شناسایی ۴۰ نفر از عوامل تولید و انتشار اخبار کذب در شبکههای اجتماعی با سوءاستفاده از هوش مصنوعی خبر داد.
فضای مجازی
هوش مصنوعی
فضای مجازی
هوش مصنوعی
تصاویر
اغتشاشات
۱۴۰۴/۱۰/۱۴
/ سایت رکنا
انهدام جریان سازمان یافته انتشار شایعات در اینستاگرام
حوادث رکنا: لیس تهران بزرگ از شناسایی و برخورد با ۴۰ نفر از عوامل انتشار اخبار جعلی در اینستاگرام خبر داد که با سوءاستفاده از هوش مصنوعی و بازنشر تصاویر قدیمی، قصد تشویش اذهان عمومی را داشتند.
پرونده ویژه
حوادث تهران
پرونده ویژه
حوادث تهران
۱۴۰۴/۱۰/۱۴
/ سایت تابناک
انحراف اعتراضات با ابزار تصویر و ویدئوی تحریفشده
تصویر و ویدئو در اعتراضات احساس میسازند و تحریفهای کوچک میتوانند روایت عمومی را تغییر دهند.
هشدار
تصاویر جعلی
هشدار
تصاویر جعلی
شاهد عینی
اعتراضات
۱۴۰۴/۱۰/۱۴
/ سایت فرارو
چگونه فریب تصاویر هوش مصنوعی را نخوریم؟
پیشرفتهای شگفتانگیز هوش مصنوعی مرز میان واقعیت و تصویر ساختگی را محو کرده است. از شبکههای اجتماعی تا خبرگزاریها، تشخیص جعلی بودن تصاویر امروز بیش از هر زمان دیگری نیازمند «سواد بصری دیجیتال» است. در این مقاله چند راهکار عملی برای شناسایی تصاویر هوش مصنوعی ارائه شده است.
هوش مصنوعی
تصاویر هوش مصنوعی
هوش مصنوعی
تصاویر هوش مصنوعی
۱۴۰۴/۱۰/۱۴
/ خبرگزاری مهر
جا زدن تصاویر یونان جای ایران!
در گیجگاه این قسمت، اخبار جعلی چند روز گذشته فضای مجازی را نگاهی میکنیم.
ایران
یونان
ایران
یونان
انفجار بمب
اغتشاشات ایران
۱۴۰۴/۱۰/۱۴
/ سایت الف
تصاویر جعلی چگونه مسیر اعتراضات را به انحراف میبرند؟
تصویر و ویدئو در اعتراضات احساس میسازند و تحریفهای کوچک میتوانند روایت عمومی را تغییر دهند.
تصاویر جعلی
هوش مصنوعی
تصاویر جعلی
هوش مصنوعی
۱۴۰۴/۱۰/۱۴
/ خبرگزاری تسنیم
تصاویر جعلی چگونه مسیر اعتراضات را به انحراف میبرند؟ - تسنیم
تصویر و ویدئو در اعتراضات احساس میسازند و تحریفهای کوچک میتوانند روایت عمومی را تغییر دهند.
اعتراض
اغتشاشات ایران
اعتراض
اغتشاشات ایران
۱۴۰۴/۱۰/۱۴
/ سایت رجانیوز
خبرنگار آمریکایی: بازنشر گسترده فیلمهای قدیمی از جمعآوری پوسترهای مادرو، پروپاگاندای جنگی است که سعی میکند احساس خوبی بدهد، نه اینکه اطلاعرسانی کند/ همکاری مشکوک کانالهای فارسیزبان با روایتسازی آمریکایی
حجم گستردهای از کانالهای تلگرام فارسیزبان به انتشار تصاویر جعلی از جمعآوری تصاویر مادورو توسط مخالفین وی پرداختند در حالی که واقعیت فعلی کاراکاس دقیقا بلعکس این روایتسازی است و مردم به حمایت از مادورو به خیابانها آمدهاند.
۱۴۰۴/۱۰/۱۴
/ خبرگزاری همشهریآنلاین
موج انتقاد جهانی از «گروک» | هوش مصنوعی ایلان ماسک متهم به انتشار تصاویر غیراخلاقی در شبکه X شد
هوش مصنوعی «گروک» با اتهام تولید و انتشار تصاویر غیراخلاقی جعلی از کاربران در پلتفرم ایکس مواجه شد.
ایلان ماسک
هوش مصنوعی
ایلان ماسک
هوش مصنوعی
تکنولوژی (فناوری)
۱۴۰۴/۱۰/۱۴
/ سایت کلبه سرگرمی
موج انتقاد جهانی از «گروک» | هوش مصنوعی ایلان ماسک متهم به انتشار تصاویر غیراخلاقی در شبکه X شد - کلبه سرگرمی
هوش مصنوعی «گروک» با اتهام تولید و انتشار تصاویر غیراخلاقی جعلی از کاربران در پلتفرم ایکس مواجه شد.
۱۴۰۴/۱۰/۱۴
/ سایت کولاک
موج انتقاد جهانی از «گروک» | هوش مصنوعی ایلان ماسک متهم به انتشار تصاویر غیراخلاقی در شبکه X شد - مجله اینترنتی کولاک
هوش مصنوعی «گروک» با اتهام تولید و انتشار تصاویر غیراخلاقی جعلی از کاربران در پلتفرم ایکس مواجه شد.
۱۴۰۴/۱۰/۱۳
/ سایت افکارنیوز
تصاویر مربوط به بازداشت مادورو جعلی است
تصاویری از بازداشت رئیس جمهور ونزوئلا در شبکههای اجتماعی در حال دست به دست شدن است که بررسیها نشان میدهد جعلی و ساخته هوش مصنوعی است.
رئیس جمهور ونزوئلا
شبکه های اجتماعی
رئیس جمهور ونزوئلا
شبکه های اجتماعی
مواد مخدر
نیکلاس مادورو
۱۴۰۴/۱۰/۱۳
/ سایت روزنو
هشدار پلیس فتا به شهروندان: بسیاری از تصاویر پلیس و نیروهای نظامی جعلی و ساخته هوش مصنوعی است
رئیس پلیس فتا از شهروندان خواست پیش از انتشار هرگونه محتوا در فضای مجازی، از صحت آن اطمینان حاصل کرده و از بازنشر تصاویر و ویدئوهای تأییدنشده، بهویژه موارد منتسب به پلیس، نیروهای نظامی و سایر دستگاههای رسمی، خودداری کنند.
۱۴۰۴/۱۰/۱۳
/ سایت شفقنا
چگونه فریب این عکسها را نخوریم؟
شفقنا رسانه- پیشرفت خیرهکننده هوش مصنوعی، بهویژه در حوزه تولید تصویر، مرز میان «واقعیت» و «ساختگی» را بهشدت باریک کرده است. به گزارش شفقنا رسانه از همشهری آنلاین امروز تصاویر جعلی نهتنها در شبکههای اجتماعی، بلکه در وبسایتهای خبری، تبلیغات و حتی پروندههای حقوقی دیده میشوند. این تحول، ضرورت ارتقای …
جعل عمیق
سواد بصری
جعل عمیق
سواد بصری
هوش مصنوعی
۱۴۰۴/۱۰/۱۳
/ سایت تابناک
راز پشت تصاویر جنجالی از مادورو
تصاویری از دستگیری مادرو در فضای مجازی وایرال شده است که جعلی و با هوش مصنوعی ساخته شده است
تصاویر
مادورو
تصاویر
مادورو
هوش مصنوعی
جعلی
۱۴۰۴/۱۰/۱۳
/ سایت ایران آنلاین
بازداشت مادورو؟ فریب بزرگ با هوش مصنوعی
به دنبال ادعای بازداشت نیکلاس مادورو، تصاویر دستبهدستشده در شبکههای اجتماعی جعلی و ساخته هوش مصنوعی از صحنههای مربوط به قاچاقچیان مکزیکی است.
نیکولاس مادورو
ونزوئلا
نیکولاس مادورو
ونزوئلا
ایالات متحده
دونالد ترامپ
۱۴۰۴/۱۰/۱۳
/ سایت مشرق
تصاویر مربوط به بازداشت مادورو جعلی است
تصاویری از بازداشت رئیس جمهور ونزوئلا در شبکههای اجتماعی در حال دست به دست شدن است که بررسیها نشان میدهد جعلی و ساخته هوش مصنوعی است.
نیکلاس مادورو
رئیسجمهور ونزوئلا
نیکلاس مادورو
رئیسجمهور ونزوئلا
ونزوئلا
آمریکا
۱۴۰۴/۱۰/۱۳
/ سایت شفقنا
در عصر دیپ فیکها چگونه می توان به حقیقت دست یافت؟/ مریم سلیمی: باور «شنیدن کی بود مانند دیدن» با گسترش دیپ فیکها رنگ باخته است / حقیقت دیگر صرفاً دیده نمیشود، بلکه باید اثبات شود/ در حال گذر از عصر «اعتماد بصری» به «بی اعتمادی بصری» هستیم/ تنها راه برونرفت، تقویت سواد رسانهای و نهادینهکردن پروتکلهای حرفهای راستیآزمایی است/ خطری بالاتر از دیپ فیک؛ جعل تجربه و جایگزینی باور به جای سند در راه است
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۰/۱۳
/ سایت باشگاه خبرنگاران
واقعیت در سایه تصاویر ساختگی + فیلم
با گسترش استفاده از هوش مصنوعی، انتشار اخبار جعلی و تصاویر ساختگی درباره اعتراضات ایران افزایش یافته و تشخیص واقعیت از شایعه را برای افکار عمومی دشوارتر کرده است.
هوش مصنوعی
شایعات
هوش مصنوعی
شایعات
اعتراضات
هوش مصنوعی
۱۴۰۴/۱۰/۱۲
/ سایت جهان نیوز
هشدار پلیس فتا درباره تولید تصاویر جعلی | جهان نیوز
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی هشدار داد.
پلیس فتا
هوش مصنوعی
پلیس فتا
هوش مصنوعی
۱۴۰۴/۱۰/۱۲
/ سایت جهان صنعت نیوز
هوش مصنوعی علیه افکار عمومی؛ تصاویر جعلی پلیس را باور نکنید
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
پلیس فتا
سایبری
پلیس فتا
سایبری
هوش مصنوعی
۱۴۰۴/۱۰/۱۲
/ سایت عصرایران
هشدار پلیس فتا به شهروندان: بسیاری از تصاویر پلیس و نیروهای نظامی جعلی و ساخته هوش مصنوعی است /بازنشر نکنید که جرم است
رئیس پلیس فتا از شهروندان خواست پیش از انتشار هرگونه محتوا در فضای مجازی، از صحت آن اطمینان حاصل کرده و از بازنشر تصاویر و ویدئوهای تأییدنشده، بهویژه موارد منتسب به پلیس، نیروهای نظامی و سایر دستگاههای رسمی، خودداری کنند.
پلیس فتا
هوش مصنوعی
پلیس فتا
هوش مصنوعی
تصاویر جعلی
۱۴۰۴/۱۰/۱۲
/ سایت جهان نیوز
هشدار پلیس فتا درباره تولید تصاویر جعلی با هوش مصنوعی | جهان نیوز
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی هشدار داد.
پلیس فتا
هوش مصنوعی
پلیس فتا
هوش مصنوعی
۱۴۰۴/۱۰/۱۲
/ سایت اقتصادآنلاین
ساخت و انتشار تصاویر جعلی مأموران با هوش مصنوعی/ پلیس هشدار داد
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
پلیس فتا
نیروی انتظامی
پلیس فتا
نیروی انتظامی
هوش مصنوعی
۱۴۰۴/۱۰/۱۲
/ سایت خبرآنلاین
پلیس: تصاویر جعلی مأموران با هوش مصنوعی را بازنشر نکنید
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
هوش مصنوعی
پلیس فتا
هوش مصنوعی
پلیس فتا
جرم
۱۴۰۴/۱۰/۱۲
/ سایت کلبه سرگرمی
پلیس: تصاویر جعلی مأموران با هوش مصنوعی را بازنشر نکنید - کلبه سرگرمی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی
۱۴۰۴/۱۰/۱۲
/ سایت فرهیختگان
هوش مصنوعی عامل جعل تصاویر منتسب به نیروهای نظامی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
هوش مصنوعی
گرانی
هوش مصنوعی
گرانی
اعتراض
معیشت
۱۴۰۴/۱۰/۱۲
/ سایت فرارو
پلیس: بازنشر تصاویر جعلی مأموران با هوش مصنوعی جرم است
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
هوش مصنوعی
اعتراضات اخیر
هوش مصنوعی
اعتراضات اخیر
پلیس فتا فراجا
۱۴۰۴/۱۰/۱۲
/ سایت نورنیوز
بازنشر تصاویر جعلی پلیس با هوش مصنوعی جرم است
رئیس پلیس فتا فراجا هشدار داد صفحات شبکههای اجتماعی با سوءاستفاده از هوش مصنوعی، تصاویر و ویدئوهای جعلی از مأموران و فرماندهان نظامی و انتظامی منتشر میکنند. بازنشر این محتواها جرم بوده و شهروندان باید پیش از انتشار، صحت آن را بررسی کنند.
هوش مصنوعی
فضای مجازی
هوش مصنوعی
فضای مجازی
پلیس فتا
امنیت سایبری
۱۴۰۴/۱۰/۱۲
/ سایت فردا نیوز
پلیس: تصاویر جعلی مأموران با هوش مصنوعی را بازنشر نکنید
این محتواهای جعلی با هدف ایجاد شبهه، القای اخبار نادرست و برهمزدن آرامش روانی جامعه تولید و منتشر میشوند و هیچگونه ارتباطی با واقعیت یا مأموران و مسئولان نیروهای مسلح ندارند.
هوش مصنوعی
پلیس
هوش مصنوعی
پلیس
تصاویر جعلی مأموران
۱۴۰۴/۱۰/۱۲
/ سایت خبرفوری
پلیس: تصاویر جعلی مأموران با هوش مصنوعی را بازنشر نکنید
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
هوش مصنوعی
رئیس پلیس فتا
هوش مصنوعی
رئیس پلیس فتا
۱۴۰۴/۱۰/۱۲
/ خبرگزاری تسنیم
هشدار پلیس فتا درباره تولید تصاویر جعلی با هوش مصنوعی - تسنیم
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی هشدار داد.
پلیس فتا
پلیس فتا
۱۴۰۴/۱۰/۱۲
/ خبرگزاری ایسکانیوز
هشدار پلیس فتا درباره انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد و تأکید کرد: تولید، بازنشر و دامنزدن به اینگونه محتواها جرم محسوب میشود و با عاملان آن برخورد قانونی خواهد شد.
پلیس فتا
پلیس فتا
۱۴۰۴/۱۰/۱۲
/ سایت ایران آنلاین
هوشیار باشید؛ هوش مصنوعی عامل جعل تصاویر منتسب به پلیس و نیروهای نظامی در فضای مجازی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد و تأکید کرد: تولید، بازنشر و دامنزدن به اینگونه محتواها جرم محسوب میشود و با عاملان آن برخورد قانونی خواهد شد.
سردار وحید مجید
پلیس فتا
سردار وحید مجید
پلیس فتا
رئیس پلیس فتا تهران بزرگ
پلیس
۱۴۰۴/۱۰/۱۲
/ سایت جوان آنلاین
هوش مصنوعی عامل جعل تصاویر منتسب به پلیس و نیروهای نظامی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
هوش مصنوعی
پلیس فتا
هوش مصنوعی
پلیس فتا
سردار وحید مجید
۱۴۰۴/۱۰/۱۲
/ خبرگزاری ایسنا
هوشیار باشید؛ هوش مصنوعی عامل جعل تصاویر منتسب به پلیس و نیروهای نظامی در فضای مجازی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد و تأکید کرد: تولید، بازنشر و دامنزدن به اینگونه محتواها جرم محسوب میشود و با عاملان آن برخورد قانونی خواهد شد.
هوش مصنوعی
فراجا
هوش مصنوعی
فراجا
۱۴۰۴/۱۰/۱۲
/ خبرگزاری مهر
هوش مصنوعی عامل جعل تصاویر منتسب به پلیس و نیروهای نظامی
رئیس پلیس فتا فراجا نسبت به افزایش تولید و انتشار تصاویر و ویدئوهای جعلی مبتنی بر هوش مصنوعی با انتساب دروغین به فرماندهان، مدیران و مأموران نظامی و انتظامی در فضای مجازی هشدار داد.
پلیس فتا
سردار وحید مجید
پلیس فتا
سردار وحید مجید
پلیس فتا تهران
۱۴۰۴/۱۰/۱۱
/ روزنامه مردم سالاری
فتنه جدید اینترنشنال به روایت روزنامه کیهان - مردم سالاری آنلاین
شبکه ضدانقلاب اینترنشنال و وابسته به رژیم صهیونیستی با موجسواری روی اعتراضات صنفی برخی از بازاریان که مطالبهگر خواستههای خود هستند با پخش اخبار و تصاویر جعلی و دروغ از فضای شهرهای کشورمان، میدان فتنه و آشوب را برای عناصر ضدانقلاب و نفوذی در داخل کشور فراهم میسازد.
۱۴۰۴/۱۰/۱۱
/ سایت مشرق
دست خالی ضدانقلاب برای ایجاد اغتشاش و آشوب/ وقتی پیادهروی «لشکرکشی خیابانی» جا زده میشود
در یکی تصویرسازیهای پرشمار فیک و جعلی ضدانقلاب، برای به خیابان کشاندن مردم از تصاویر مربوط به پیادهروی خانوادگی گرگانیها در آذر، به عنوان لشکرکشی خیابانی معترضان بهرهگرفته شد.
گرگان
ایران
گرگان
ایران
استان گلستان
آذر
۱۴۰۴/۱۰/۱۱
/ سایت شفقنا
حقیقت در عصر دیپ فیک چگونه زنده میماند؟ یک مدرس سواد رسانه ای و بصری پاسخ میدهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اعتماد عمومی
امنیت اطلاعات
اعتماد عمومی
امنیت اطلاعات
جعلیسازی ویدیو
حقیقت بصری
۱۴۰۴/۱۰/۱۱
/ سایت اقتصادآنلاین
پاسخ روزنامه کیهان به اینترنشنال / اغتشاشات کار حامیان رژیم منحوس پهلوی است
«از اولین ساعات برپایی تجمعات با پخش اخبار جعلی و تصاویر آرشیوی و دروغ از آشوبهای قبلی در داخل ایران، با برپایی یک فضای جنگی در این شبکه و نیز گفتوگو با عناصر فراری ضدانقلاب و عناصر و حامیان رژیم منحوس پهلوی سعی دارد که باردیگر فتنه جدیدی را در داخل کشور به راه بیندازد »
روزنامه کیهان
اعتراضات
روزنامه کیهان
اعتراضات
۱۴۰۴/۱۰/۱۱
/ سایت تابناک
روایت کیهان از فتنه جدید اینترنشنال
شبکه ضدانقلاب اینترنشنال و وابسته به رژیم صهیونیستی با موجسواری روی اعتراضات صنفی برخی از بازاریان که مطالبهگر خواستههای خود هستند با پخش اخبار و تصاویر جعلی و دروغ از فضای شهرهای کشورمان، میدان فتنه و آشوب را برای عناصر ضدانقلاب و نفوذی در داخل کشور فراهم میسازد.
اینترنشنال
ضدانقلاب
اینترنشنال
ضدانقلاب
عناصر نفوذی
اعتراضات
۱۴۰۴/۱۰/۱۱
/ سایت خبرفوری
فتنه جدید اینترنشنال به روایت روزنامه کیهان
شبکه ضدانقلاب اینترنشنال و وابسته به رژیم صهیونیستی با موجسواری روی اعتراضات صنفی برخی از بازاریان که مطالبهگر خواستههای خود هستند با پخش اخبار و تصاویر جعلی و دروغ از فضای شهرهای کشورمان، میدان فتنه و آشوب را برای عناصر ضدانقلاب و نفوذی در داخل کشور فراهم میسازد.
کیهان
اعتراضات اخیر
کیهان
اعتراضات اخیر
ایران اینترنشنال
۱۴۰۴/۱۰/۱۱
/ سایت خبرآنلاین
فتنه جدید اینترنشنال به روایت روزنامه کیهان
شبکه ضدانقلاب اینترنشنال و وابسته به رژیم صهیونیستی با موجسواری روی اعتراضات صنفی برخی از بازاریان که مطالبهگر خواستههای خود هستند با پخش اخبار و تصاویر جعلی و دروغ از فضای شهرهای کشورمان، میدان فتنه و آشوب را برای عناصر ضدانقلاب و نفوذی در داخل کشور فراهم میسازد.
شبکه ایران اینترنشنال
رسانه
شبکه ایران اینترنشنال
رسانه
روزنامه کیهان
۱۴۰۴/۱۰/۰۷
/ خبرگزاری ایسنا
هوش مصنوعی و بحران تشخیص واقعیت در صنعت بیمه
غیرقابل تشخیص بودن واقعیت اکنون بزرگترین چالش صنعت بیمه در دنیاست، افرادی که با استفاده از فناوریهای نوین اقدام به ایجاد اختلال در دادهها، تولید تصاویر غیرواقعی از خسارت، ساخت مدارک پزشکی جعلی و شبیهسازی صدا میکنند، میتوانند خسارتهای سنگینی به صنعت بیمه وارد کنند.
هوش مصنوعی
صنعت بیمه
هوش مصنوعی
صنعت بیمه
۱۴۰۴/۱۰/۰۶
/ سایت خبرفوری
ویدئوی جعلی کودتا در فرانسه که خود مکرون هم باور کرد!
در روزهای اخیر، ویدئوی ساختگی کودتا در فرانسه با میلیونها بازدید در شبکههای اجتماعی دستبهدست شد؛ ویدئویی که حتی رئیسجمهور این کشور را به واکنش رسمی واداشت. حقیقت اما ساده بود: هیچ کودتایی رخ نداده بود و تصاویر توسط هوش مصنوعی ساخته شده بودند.
فرانسه
کودتا
فرانسه
کودتا
ویدئوی جعلی
۱۴۰۴/۱۰/۰۲
/ سایت تابناک
پایان یک شایعه؛ تصاویر ریختن برنج در دریا جعلی بود
رئیس کل دادگستری استان هرمزگان ادعای برخی افراد از جمله یک نماینده مجلس که گفته بود تن تن برنج در بندر شهید رجایی به دریا ریخته میشود را تکذیب کرد و گفت: هیچگونه محموله برنجی در بندر شهید رجایی معدوم یا به دریا ریخته نشده است.
برنج
هوش مصنوعی
برنج
هوش مصنوعی
دریا
بندر شهید رجایی
۱۴۰۴/۰۹/۲۹
/ سایت عصرایران
نام جعلی «خلیج عربی» برای امارات دردسرساز شد / توقف حمل کالا توسط رانندگان ایرانی (فیلم)
تصاویر منتشر شده تا تاکید دارد رانندگان ایرانی تمامی کانتینرها مدت 11 روز در اعتراض به درج نام جعلی به جای خلیج فارس در اسناد باربری حرکت نکردهاند و در نهایت طرف اماراتی مجبور به اصلاح اوراق شده است.
راننده ایرانی
خلیج فارس
راننده ایرانی
خلیج فارس
امارات
۱۴۰۴/۰۹/۲۹
/ سایت تابناک
ابزاری برای شناسایی ویدئوهای جعلی
گوگل قابلیتی تازه به جمنای اضافه کرده که به کاربران امکان میدهد ویدئوهای ساختهشده با هوش مصنوعی را تشخیص دهند.
گوگل
جمنای گوگل
گوگل
جمنای گوگل
تصاویر
ویدیو
۱۴۰۴/۰۹/۲۸
/ سایت خبرفوری
غیرت رانندگان ایرانی؛ امارات را سرجایش نشاند/ ویدئو
تصاویر منتشر شده تا تاکید دارد رانندگان ایرانی تمامی کانتینرها مدت ده روز در اعتراض به درج نام جعلی به جای خلیج فارس در اسناد باربری حرکت نکردهاند و در نهایت طرف اماراتی مجبور به اصلاح اوراق شده است.
خلیج فارس
کانتینر
خلیج فارس
کانتینر
امارات
رانندگان کامیون
۱۴۰۴/۰۹/۲۸
/ سایت خبرفوری
غیرت رانندگان ایرانی؛ امارات را سرجایش نشاند/ ویدئو
تصاویر منتشر شده تا تاکید دارد رانندگان ایرانی تمامی کانتینرها مدت ده روز در اعتراض به درج نام جعلی به جای خلیج فارس در اسناد باربری حرکت نکردهاند و در نهایت طرف اماراتی مجبور به اصلاح اوراق شده است.
خلیج فارس
کانتینر
خلیج فارس
کانتینر
امارات
رانندگان کامیون
۱۴۰۴/۰۹/۲۷
/ سایت خبرفوری
انتشار تصاویر تازه از املاک جفری اپستین؛ گذرنامه جعلی، پیامهای مشکوک و عکسهای جنجالی
دموکراتهای کمیته نظارت مجلس نمایندگان آمریکا مجموعهای از تصاویر تازه از املاک جفری اپستین منتشر کردهاند؛ اسنادی که بار دیگر شبکه ارتباطات و فعالیتهای مشکوک او را به صدر اخبار آورده است.
انتشار تصاویر
جفری اپستین
انتشار تصاویر
جفری اپستین
۱۴۰۴/۰۹/۲۹
/ سایت تابناک
رانندههای ایرانی بار امارات را به خاطر خلیج فارس خواباندند!
تصاویر منتشر شده تا تاکید دارد رانندگان ایرانی تمامی کانتینرها مدت ده روز در اعتراض به درج نام جعلی به جای خلیج فارس در اسناد باربری حرکت نکردهاند و در نهایت طرف اماراتی مجبور به اصلاح اوراق شده است.
۱۴۰۴/۰۹/۲۶
/ سایت رکنا
عکس /رونمایی از شوهر جعلی بهنوش بختیاری، تولد کریسمسی شاهرخ استخری برای همسرش، محله پولدار نشین رضا گلزار با کلکسیون ماشین های هوش پران و...
امروز سری به اینستاگرام زدیم و جدید ترین تصاویر از بازیگران را برای شما به اشتراک گذاشتیم. همراه ما باشید.
بهنوش بختیاری
بهنوش بختیاری
۱۴۰۴/۰۹/۱۶
/ سایت افکارنیوز
رسوایی بزرگ موساد / پشت پرده ویدیوهای دیپفیک علیه ایران +عکس
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران
پشت پرده
ایران
پشت پرده
شبکه های اجتماعی
لبنان
۱۴۰۴/۰۹/۱۶
/ سایت اینتیتر
تصاویر حمله به ایران «کارتونی» از آب درآمد! + سند | رسوایی بزرگ موساد | پشت پرده ویدیوهای دیپفیک علیه ایران
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران
ایران
۱۴۰۴/۰۹/۱۶
/ خبرگزاری همشهریآنلاین
تصاویر حمله به ایران «کارتونی» از آب درآمد! + سند | رسوایی بزرگ موساد | پشت پرده ویدیوهای دیپفیک علیه ایران
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران و اسرائیل
هوش مصنوعی
ایران و اسرائیل
هوش مصنوعی
۱۴۰۴/۰۹/۱۵
/ سایت عصرایران
راستی آزمایی تصاویر حمله اسرائیل به مراکز فرماندهی ایران؛ فرانس۲۴: تنها یک ویدیو واقعی است
حساب کاربری که به عنوان منبع این ویدیوها ذکر شده، به انتشار ویدیوهای تولید شده توسط هوش مصنوعی معروف است. این حساب کاربری که بیش از ۱۰۰ هزار دنبالکننده دارد، به صورت مرتب محتوایی در مخالفت با رژیم ایران منتشر میکند.
حمله اسرائیل به ایران
مرکز فرماندهی
حمله اسرائیل به ایران
مرکز فرماندهی
ویدئوی جعلی
فرانس 24
دریافت اخبار بیشتر
۱۴۰۴/۰۹/۱۵ - ۱۳:۱۰:۱۵
خرید فالوور
فالوور اینستاگرام
قیمت طلا
شنبه ۹ اسفند ۱۴۰۴ -
28 February 2026
دریافت اخبار بیشتر
خرید فالوور
فالوور اینستاگرام
قیمت طلا