VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
شنبه ۱۶ اسفند ۱۴۰۴ -
7 March 2026
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
ویدیوهای جعلی
هوش مصنوعی
۱۰ ساعت قبل / خبرگزاری ایلنا
انفجار ویدیوهای جعلی هوش مصنوعی در روزهای جنگ +عکس
کارشناسان هشدار میدهند که این موضوع اعتماد عمومی را تهدید میکند و نشان میدهد مقابله با اطلاعات نادرست در زمانی که دسترسی به ابزارهای هوش مصنوعی بسیار آسان شده، چقدر دشوار است.
جنگ
جنگ
۱۲ ساعت قبل / سایت عصرایران
انفجار ویدیوهای جعلی هوش مصنوعی در روزهای جنگ (+عکس)
کارشناسان هشدار میدهند که این موضوع اعتماد عمومی را تهدید میکند و نشان میدهد مقابله با اطلاعات نادرست در زمانی که دسترسی به ابزارهای هوش مصنوعی بسیار آسان...
ویدیوهای جعلی
انفجار
ویدیوهای جعلی
انفجار
هوش مصنوعی
۱۲ ساعت قبل / شهرآرانیوز
جعل تصاویر انفجار ناشی از حملات آمریکایی-صهیونی به ایران با هوش مصنوعی
ویدیوهای جعلی ساخته شده در مورد جنگ ایران که با هوش مصنوعی ساخته شدهاند؛ در این روزها افزایش یافته است و حتی برخی از این راه درآمد کسب میکنند.
۱۴۰۴/۱۱/۲۳
/ سایت پارسینه
روشهای نوین سرقت اطلاعات بانکی و شخصی توسط هکرهای کرهشمالی
هکرهای کره شمالی با ویدیوهای جعلی هوش مصنوعی بدافزارهای خطرناکی را وارد سیستمهای ویندوز و مک میکنند. حتی دیگر نمیتوانیم به چشمهای خودمان هم اعتماد کنیم.
اطلاعات بانکی
هکرهای کره شمالی
اطلاعات بانکی
هکرهای کره شمالی
۱۴۰۴/۱۱/۲۳
/ سایت پارسینه
شگرد ترسناک هکرهای کره شمالی برای سرقت اطلاعات
هکرهای کره شمالی با ویدیوهای جعلی هوش مصنوعی بدافزارهای خطرناکی را وارد سیستمهای ویندوز و مک میکنند. حتی دیگر نمیتوانیم به چشمهای خودمان هم اعتماد کنیم.
هکر
هکر
۱۴۰۴/۱۱/۲۳
/ سایت فرارو
هکرهای کره شمالی ترسناک هستند
هکرهای کره شمالی با ویدیوهای جعلی هوش مصنوعی بدافزارهای خطرناکی را وارد سیستمهای ویندوز و مک میکنند. حتی دیگر نمیتوانیم به چشمهای خودمان هم اعتماد کنیم.
هکر
کره شمالی
هکر
کره شمالی
۱۴۰۴/۱۱/۲۳
/ سایت خبرآنلاین
شگرد ترسناک هکرهای کره شمالی برای سرقت اطلاعات
هکرهای کره شمالی با ویدیوهای جعلی هوش مصنوعی بدافزارهای خطرناکی را وارد سیستمهای ویندوز و مک میکنند. حتی دیگر نمیتوانیم به چشمهای خودمان هم اعتماد کنیم.
کره شمالی
بدافزار
کره شمالی
بدافزار
دیپ فیک
حوادث و اتفاقات عجیب
۱۴۰۴/۱۱/۲۱
/ سایت شفقنا
دکتر حسین امامی: در عصر دیپفیک، تصویر از جایگاه داور به جایگاه متهم منتقل شده است/ خطر اصلی دیپفیک دروغگویی نیست؛ بیاثر شدن حقیقت است
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
جعل عمیق
حقیقتسنجی رسانهای
۱۴۰۴/۱۱/۱۷
/ سایت جماران
هشدار یونیسف درباره تهدید هوش مصنوعی علیه کودکان
یونیسف تأکید کرده تولید تصاویر و ویدیوهای جعلی جنسی از کودکان با هوش مصنوعی باید صراحتاً جرمانگاری شود.
هوش مصنوعی
یونیسف
هوش مصنوعی
یونیسف
حقوق کودکان
۱۴۰۴/۱۱/۱۶
/ سایت شفقنا
یک دکترای هوش مصنوعی: دیپفیک میتواند پیامدهای اجتماعی، سیاسی و رسانهای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت شود
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
امنیت اطلاعات
جعل عمیق
۱۴۰۴/۱۱/۱۲
/ سایت شفقنا
ضیایی پرور: ارزشگذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد/وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر برای تشخیص واقعیت کفایت نمیکند
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
آموزش رسانهای
اعتماد به تصویر
آموزش رسانهای
اعتماد به تصویر
جعل عمیق
دیپفیک
۱۴۰۴/۱۱/۱۰
/ سایت شفقنا
معاون آموزش انجمن سواد رسانهای ایران: دیپفیک علاوه بر یک فناوری، چالشی شناختی و رسانهای است/ جامعهای که دیگر به تصویر هم اعتماد ندارد، در برابر جنگ روانی بسیار آسیبپذیر است
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اعتبار رسانه
اعتماد عمومی
اعتبار رسانه
اعتماد عمومی
امنیت اطلاعات
جنگ روانی
۱۴۰۴/۱۱/۰۹
/ سایت شفقنا
یک پژوهشگر حوزه هوش مصنوعی: با گسترش دیپ فیک اتکای صرف به مشاهده برای اعتبارسنجی یک محتوا ضعیف شده است/ کاهش اعتبار تصویر و ویدئو پیامدهای سیاسی و امنیتی جدی به همراه دارد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق حرفهای رسانه
اعتماد عمومی به رسانه
اخلاق حرفهای رسانه
اعتماد عمومی به رسانه
امنیت اطلاعات
جعلیسازی ویدئو
۱۴۰۴/۱۱/۰۸
/ سایت اسپوتنیک
یک خبر جعلی دیگر از رسانههای غربی درباره «کشته شدن» زنان ایرانی در اعتراضات
یک خبر جعلی دیگر از رسانههای غربی درباره «کشته شدن» زنان ایرانی در اعتراضاتاسپوتنیک پیش از این گزارش داده بود که تعدادی از رسانهها و اینفلوئنسرهای غربی و اسرائیلی با استفاده از عکسها و ویدیوهای تولید شده توسط هوش مصنوعی و عکسهای افراد...
۱۴۰۴/۱۱/۰۷
/ سایت شفقنا
چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیکها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۰/۱۵
/ سایت باشگاه خبرنگاران
گسترش ویدیوهای جعلی در فضای مجازی + فیلم
تأثیرگذاری هر تصویر و ویدیو گاه معادل دهها هزار کلمه است؛ قابلیتی که امروز به ابزاری کلیدی در دست سازندگان اخبار جعلی تبدیل شده است.
هوش مصنوعی
شبکه های اجتماعی
هوش مصنوعی
شبکه های اجتماعی
هوش مصنوعی
شبکه های اجتماعی
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
یک پژوهشگر حوزه سواد رسانهای: جعل عمیق، متهم اصلی مرگ حقیقت در عصر پسا حقیقت است/ در حوزه رسانه، جعل عمیق کار راستیآزمایی را پیچیدهتر کرده است/ اتاقهای خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد عمومی
اخلاق رسانهای
اعتماد عمومی
امنیت اطلاعاتی
جعل عمیق
۱۴۰۴/۱۰/۱۳
/ سایت شفقنا
در عصر دیپ فیکها چگونه می توان به حقیقت دست یافت؟/ مریم سلیمی: باور «شنیدن کی بود مانند دیدن» با گسترش دیپ فیکها رنگ باخته است / حقیقت دیگر صرفاً دیده نمیشود، بلکه باید اثبات شود/ در حال گذر از عصر «اعتماد بصری» به «بی اعتمادی بصری» هستیم/ تنها راه برونرفت، تقویت سواد رسانهای و نهادینهکردن پروتکلهای حرفهای راستیآزمایی است/ خطری بالاتر از دیپ فیک؛ جعل تجربه و جایگزینی باور به جای سند در راه است
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۰/۱۱
/ سایت شفقنا
حقیقت در عصر دیپ فیک چگونه زنده میماند؟ یک مدرس سواد رسانه ای و بصری پاسخ میدهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اعتماد عمومی
امنیت اطلاعات
اعتماد عمومی
امنیت اطلاعات
جعلیسازی ویدیو
حقیقت بصری
۱۴۰۴/۱۰/۰۲
/ سایت رکنا
آیا هوش مصنوعی می تواند قاتل کودکان و حیوانات شود؟ تحلیل کامل!
رکنا: گسترش ویدیوهای جعلی حیوانات در فضای مجازی ساختهشده توسط هوش مصنوعی، میتواند تهدیدی جدی برای محیطزیست و حیاتوحش باشد. کارشناسان هشدار میدهند که ترویج تعاملات غیرواقعی انسان با حیوانات وحشی، خطرات جانی و آسیبهای غیرقابل جبران به دنبال دارد.
فضای مجازی
حیات وحش
فضای مجازی
حیات وحش
حیوانات
۱۴۰۴/۰۹/۲۴
/ سایت شفقنا
یک گزارش: داعش و دیگر گروههای افراطی از هوش مصنوعی برای تولید محتوای جعلی و جذب اعضای جدید استفاده میکنند
شفقنا- گروههای شبهنظامی به محض اینکه برنامههایی مانند ChatGPT به طور گسترده در دسترس قرار گرفتند، شروع به استفاده از هوش مصنوعی کردند. این گروهها در سالهای پس از آن، آنها به طور فزایندهای از برنامههای هوش مصنوعی مولد برای ایجاد عکسها و ویدیوهای واقعگرایانه استفاده کردهاند. به گزارش سرویس …
داعش
داعش و هوش مصنوعی
داعش
داعش و هوش مصنوعی
هوش مصنوعی
گروه های افراطی
۱۴۰۴/۰۹/۱۶
/ سایت افکارنیوز
رسوایی بزرگ موساد / پشت پرده ویدیوهای دیپفیک علیه ایران +عکس
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران
پشت پرده
ایران
پشت پرده
شبکه های اجتماعی
لبنان
۱۴۰۴/۰۹/۱۶
/ سایت اینتیتر
تصاویر حمله به ایران «کارتونی» از آب درآمد! + سند | رسوایی بزرگ موساد | پشت پرده ویدیوهای دیپفیک علیه ایران
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران
ایران
۱۴۰۴/۰۹/۱۶
/ خبرگزاری همشهریآنلاین
تصاویر حمله به ایران «کارتونی» از آب درآمد! + سند | رسوایی بزرگ موساد | پشت پرده ویدیوهای دیپفیک علیه ایران
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران و اسرائیل
هوش مصنوعی
ایران و اسرائیل
هوش مصنوعی
۱۴۰۴/۰۹/۱۵
/ سایت عصرایران
راستی آزمایی تصاویر حمله اسرائیل به مراکز فرماندهی ایران؛ فرانس۲۴: تنها یک ویدیو واقعی است
حساب کاربری که به عنوان منبع این ویدیوها ذکر شده، به انتشار ویدیوهای تولید شده توسط هوش مصنوعی معروف است. این حساب کاربری که بیش از ۱۰۰ هزار دنبالکننده دارد، به صورت مرتب محتوایی در مخالفت با رژیم ایران منتشر میکند.
حمله اسرائیل به ایران
مرکز فرماندهی
حمله اسرائیل به ایران
مرکز فرماندهی
ویدئوی جعلی
فرانس 24
۱۴۰۴/۰۹/۱۳
/ سایت فرتاک
راهنمای شناسایی ویدیوهای جعلی؛ نشانهها و ابزارهای کشف «دیپفیک»
با گسترش فناوریهای مبتنی بر هوش مصنوعی، تولید ویدیوهای جعلی موسوم به «دیپفیک» به یکی از چالشهای جدی در حوزه امنیت دیجیتال و راستیآزمایی محتوای آنلاین تبدیل شده است.
هوش مصنوعی
دیپفیک
هوش مصنوعی
دیپفیک
۱۴۰۴/۰۹/۱۱
/ سایت شفقنا
نشانههای پنهان ویدیوهای تولید شده توسط هوش مصنوعی
شفقنا- فضای دیجیتال در سالهای اخیر شاهد تحولی عمیق و بنیادین بوده است، تحولی که عمدتاً ناشی از پیشرفتهای سریع در هوش مصنوعی تولیدی و بهویژه فناوری Deepfake است. این فناوری با استفاده از الگوریتمهای پیچیده هوش مصنوعی، توانایی تغییر چهرهها، حرکات، صدا و حتی حالات احساسی افراد در ویدئوها را دارد و …
Deepfake
آگاهی
Deepfake
آگاهی
تشخیص
هوش مصنوعی
۱۴۰۴/۰۹/۱۱
/ سایت نورنیوز
فیلم حملۀ اسرائیل به فرماندهی سپاه جعلی است
سپاه پاسداران اعلام کرد که ویدیوهای منتشرشده با موضوع «حمله اسرائیل به اتاق فرماندهی سپاه»، توسط صفحات معاند و سلطنتطلب در فضای مجازی جعلی و غیرواقعی است. این ویدیوها با استفاده از تکنیکهای هوش مصنوعی تولید شدهاند.
سپاه
سپاه
۱۴۰۴/۰۹/۱۱
/ سایت فرهیختگان
فیلم حملۀ اسرائیل به فرماندهی سپاه پاسداران جعلی است
منابع آگاه در سپاه اعلام کردند که انتشار ویدیوهای ساختگی با موضوع «لحظۀ حملۀ اسرائیل به اتاق فرماندهی سپاه» که توسط صفحات معاند و سلطنتطلب در فضای مجازی منتشر شده، غیرواقعی و جعلی است.
اسرائیل
سپاه پاسداران
اسرائیل
سپاه پاسداران
۱۴۰۴/۰۹/۱۱
/ سایت عصرایران
فیلم حمله اسرائیل به فرماندهی سپاه جعلی و ساختگی است (فیلم)
خبرگزاری فارس اعلام کرده ویدیوهای منتشرشده درباره حمله اسرائیل به اتاق فرماندهی سپاه که توسط صفحات معاند در فضای مجازی پخش شده، ساختگی و با استفاده از تکنیکهای هوش مصنوعی تولید شدهاند.
ویدیوی جعلی
حمله
ویدیوی جعلی
حمله
اسرائیل
۱۴۰۴/۰۹/۰۷
/ سایت شفقنا
چطور بفهمیم یک ویدیو جعلی است یا واقعی؟
شفقنارسانه_ چطور میتوان فهمید یک ویدیو جعلی است یا واقعی و چگونه میتوان بدون گرفتار شدن در دام فریبهای تصویری تصمیم گرفت. به گزارش شفقنارسانه از خبرآنلاین، بسیاری از کاربران تصور میکنند فقط ویدیوهای عجیب یا بیش از حد واقعی احتمال جعلی بودن دارند. اما ویدیوهای ساده و روزمره هم امروز به کمک مدلهای …
جعل عمیق
هوش مصنوعی
جعل عمیق
هوش مصنوعی
ویدئو واقعی
ویدیو جعلی
۱۴۰۴/۰۸/۳۰
/ سایت الف
چگونه فریب هوش مصنوعی را نخوریم!
یک فیلمساز ایرانی که در بخش تولیدات هوش مصنوعی فعالیت دارد، چهار ترفند ساده را فاش میکند که با گوشی همراهتان میتوانید ویدیوهای جعلی هوش مصنوعی را در کمتر از یک دقیقه شناسایی کنید.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۸/۲۹
/ سایت دیدبان ایران
4 ترفند ساده که با آن میتوان تولیدات هوش مصنوعی را تشخیص داد
یک فیلمساز ایرانی که در بخش تولیدات هوش مصنوعی فعالیت دارد، چهار ترفند ساده را فاش میکند که با گوشی همراهتان میتوانید ویدیوهای جعلی هوش مصنوعی را در کمتر از یک دقیقه شناسایی کنید.
جشنواره فیلم کوتاه
جنگل
جشنواره فیلم کوتاه
جنگل
سینمای ایران
گوگل
۱۴۰۴/۰۸/۲۹
/ سایت عصرایران
4 ترفند ساده که با آن میتوان تولیدات هوش مصنوعی را تشخیص داد
یک فیلمساز ایرانی که در بخش تولیدات هوش مصنوعی فعالیت دارد، چهار ترفند ساده را فاش میکند که با گوشی همراهتان میتوانید ویدیوهای جعلی هوش مصنوعی را در کمتر از یک دقیقه شناسایی کنید.
هوش مصنوعی
ترفند
هوش مصنوعی
ترفند
تولیدات
دیپ فیک
۱۴۰۴/۰۸/۲۹
/ خبرگزاری ایسنا
چگونه فریب هوش مصنوعی را نخوریم!
یک فیلمساز ایرانی که در بخش تولیدات هوش مصنوعی فعالیت دارد، چهار ترفند ساده را فاش میکند که با گوشی همراهتان میتوانید ویدیوهای جعلی هوش مصنوعی را در کمتر از یک دقیقه شناسایی کنید.
هوش مصنوعی
امین صمدی
هوش مصنوعی
امین صمدی
سینما و هوش مصنوعی
سیدمحمد خاتمی
۱۴۰۴/۰۸/۲۰
/ سایت شفقنا
راهنمایی برای تشخیص ویدیوهای ساخته شده با هوش مصنوعی
شفقنا- منابع رسانهای بینالمللی هشدار دادند که با گسترش سریع ابزارهای تولید ویدیو با هوش مصنوعی، فضای مجازی به سرعت در حال پر شدن از ویدیوهای جعلی است؛ روندی که از زمان عرضه نرمافزار «سورا ۲» (Sora 2) شرکت «اپنایآی» شدت گرفته است. به گزارش شفقنا؛ وبگاه روزنامه الشرق الاوسط نوشت: «به گزارش روزنامه …
سورا2
هوش مصنوعی
سورا2
هوش مصنوعی
ویدئوهای جعلی
۱۴۰۴/۰۸/۱۴
/ سایت سیتنا
فیلم ساخته شده با هوش مصنوعی را چگونه تشخیص بدهیم؟
گزارشات جدید نشان میدهد کیفیت تصویر، طول و میزان فشردهسازی از مهمترین شاخصهایی هستند که میتوانند به شناسایی ویدیوهای ساختگی کمک کنند و به گفته کارشناسان، تشخیص ویدیوهای جعلی در ماههای آینده دشوارتر خواهد شد و کاربران ناگزیر باید سواد بصری و رسانهای خود را متناسب با سرعت پیشرفت هوش مصنوعی ارتقا …
هوش مصنوعی
شبکه اجتماعی
هوش مصنوعی
شبکه اجتماعی
اینستاگرام
دیپ فیک
۱۴۰۴/۰۸/۰۳
/ خبرگزاری ایرنا
«فرار از زندان»؛ چرا پروژه سایبری اسرائیل و رضا پهلوی در جنگ ۱۲ روزه به نتیجه نرسید؟
تهران-ایرنا- چندی پیش موسسه تحقیقاتی «سیتیزنلب» فاش کرد که یک شبکه مجازی با عنوان «فرار از زندان» در زمان جنگ اسرائیل علیه ایران به انتشار ویدیوهای دیپ فیک(جعلی) میپرداخت که طبق تحقیقات رسانه اسرائیلی هاآرتص، به طور غیرمستقیم از سوی رژیم صهیونیستی تامین مالی میشد؛ اما این پروژه چگونه اجرا شد و چرا …
توئیتر
رژیم صهیونیستی
توئیتر
رژیم صهیونیستی
کانادا
توییتر
۱۴۰۴/۰۸/۰۳
/ سایت خبرفوری
«فرار از زندان»؛ چرا پروژه سایبری اسرائیل و رضا پهلوی در جنگ ۱۲ روزه به نتیجه نرسید؟
چندی پیش موسسه تحقیقاتی «سیتیزنلب» فاش کرد که یک شبکه مجازی با عنوان «فرار از زندان» در زمان جنگ اسرائیل علیه ایران به انتشار ویدیوهای دیپ فیک(جعلی) میپرداخت که طبق تحقیقات رسانه اسرائیلی هاآرتص، به طور غیرمستقیم از سوی رژیم صهیونیستی تامین مالی میشد؛ اما این پروژه چگونه اجرا شد و چرا به نتیجه نرسید؟
رضا پهلوی
اسرائیل
رضا پهلوی
اسرائیل
۱۴۰۴/۰۷/۳۰
/ سایت گیمولوژی
یوتوب ابزار Likeness Detection را برای مقابله با دیپفیک معرفی کرد
یوتوب از عرضه یک ابزار ویژه برای «شناسایی شباهت» در ویدیوها خبر داده که برای مقابله با دیپفیک یا ویدیوهای جعلی توسعه یافته است. به گزارش انگجت، قابلیت شناسایی شباهت (Likeness Detection) فعلاً برای برخی از اعضای YouTube Partner Program عرضه شده است. این ابزار فعلاً فقط مواردی را پوشش میدهد که در آن …
۱۴۰۴/۰۷/۱۹
/ سایت شارا
ویدیوهای جعلی با هوش مصنوعی؛ تهدید جدید واقعیتنمایی و انتشار خشونت سیاسی در آمریکا - شارا
انتشار ویدیوهای جعلی با ابزار هوش مصنوعی Sora در شبکههای اجتماعی، معترضان ساختگی و خشونت ساختگی را نمایش میدهد و تهدیدی برای واقعیت و امنیت اطلاعات ایجاد کرده است.
۱۴۰۴/۰۷/۱۷
/ سایت سلام سینما
واکنش دختر رابین ویلیامز به ویدیوهای جعلی
زلدا ویلیامز، دختر بازیگر و کمدین فقید رابین ویلیامز، از کاربران خواست تا ساخت و ارسال ویدیوهای تولیدشده با هوش مصنوعی از پدرش را متوقف کنند.
۱۴۰۴/۰۷/۱۵
/ خبرگزاری ایسنا
واکنش دختر رابین ویلیامز به ویدیوهای جعلی
زلدا ویلیامز، دختر بازیگر و کمدین فقید رابین ویلیامز، از کاربران خواست تا ساخت و ارسال ویدیوهای تولیدشده با هوش مصنوعی از پدرش را متوقف کنند.
رابین ویلیامز
هوش مصنوعی
رابین ویلیامز
هوش مصنوعی
۱۴۰۴/۰۷/۱۵
/ سایت جماران
واکنش دختر رابین ویلیامز به ویدیوهای جعلی
زلدا ویلیامز، دختر بازیگر و کمدین فقید رابین ویلیامز، از کاربران خواست تا ساخت و ارسال ویدیوهای تولیدشده با هوش مصنوعی از پدرش را متوقف کنند.
رابین ویلیامز
ویدیوهای جعلی
رابین ویلیامز
ویدیوهای جعلی
دختر رابین ویلیامز
۱۴۰۴/۰۷/۱۴
/ سایت اندیشه قرن
رضا پهلوی از لیست مهرههای موساد کنار رفت
به گزارش اینتیتر به نقل از ایران، گزارش افشاگرانه روزنامه «هاآرتص» با استناد به تحقیقات مؤسسه «آزمایشگاه شهروندی» The Citizen Lab وابسته به دانشگاه تورنتو در کانادا منتشر شد و از یکی از پیچیدهترین عملیاتهای رژیم صهیونیستی در فضای مجازی فارسی زبان پرده برداشت. این گزارش نشان داد سرویس جاسوسی رژیم …
دریافت اخبار بیشتر
۱۴۰۴/۰۷/۱۴ - ۲۲:۱۱:۰۸
خرید فالوور
فالوور اینستاگرام
قیمت طلا
شنبه ۱۶ اسفند ۱۴۰۴ -
7 March 2026
دریافت اخبار بیشتر
خرید فالوور
فالوور اینستاگرام
قیمت طلا