VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
شنبه ۹ اسفند ۱۴۰۴ -
28 February 2026
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
جعل عمیق
هوش مصنوعی
۱۴۰۴/۱۱/۳۰
/ سایت شفقنا
نخست وزیر انگلیس: شرکتهای فناوری باید ظرف ۴۸ ساعت «پورن انتقامی» را حذف کنند یا مسدود میشوند
شفقنا- استارمر میگوید شرکتهای فناوری باید ظرف ۴۸ ساعت «پورن انتقامی» را حذف کنند یا در معرض خطر مسدود شدن قرار گیرند. به گزارش سرویس ترجمه شفقنا؛ کر استارمر در مصاحبهای با گاردین گفته است: تصاویر برهنه دیپفیک و «پورن انتقامی» باید ظرف ۴۸ ساعت از اینترنت حذف شوند، در غیر این صورت شرکتهای فناوری …
انگلیس
پورن انتقامی
انگلیس
پورن انتقامی
تصاویر جنسی
گروک
۱۴۰۴/۱۱/۲۹
/ خبرگزاری دانشجو
آینده امنیت ملی بدون حکمرانی هوش مصنوعی قابل تصور نیست
رئیس دانشگاه اصفهان، در همایش اقتصاد جنایت با هشدار نسبت به سرقت گسترده دادهها، جعل هویت دیجیتال، دستکاری افکار عمومی و گسترش جرایم سایبری، تأکید کرد کشورها ناچارند به سمت توسعه پلتفرمهای بومی، تقویت امنیت داده و حکمرانی هوش مصنوعی حرکت کنند؛ در غیر این صورت با تهدیدات عمیق و چندلایه مواجه خواهند …
دانشگاه اصفهان
دانشگاه اصفهان
۱۴۰۴/۱۱/۲۸
/ سایت شفقنا
آغاز تحقیقات ایرلند درباره هوش مصنوعی گروک بهدلیل تولید تصاویر غیراخلاقی
شفقنا- کمیسیون حفاظت از دادههای ایرلند، به نمایندگی از اتحادیه اروپا، روز سهشنبه تحقیقاتی را در مورد برنامه چتبات «گروک» در پلتفرم ایکس آغاز کرد. این برنامه که مبتنی بر هوش مصنوعی است، قادر به تولید تصاویر جنسی و صریح با فناوری جعل عمیق میباشد، که آخرین اقدام بینالمللی برای محدود کردن این ابزار …
ایکس
گروک
ایکس
گروک
هوش مصنوعی
۱۴۰۴/۱۱/۲۱
/ سایت شفقنا
دکتر حسین امامی: در عصر دیپفیک، تصویر از جایگاه داور به جایگاه متهم منتقل شده است/ خطر اصلی دیپفیک دروغگویی نیست؛ بیاثر شدن حقیقت است
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
جعل عمیق
حقیقتسنجی رسانهای
۱۴۰۴/۱۱/۱۶
/ سایت شفقنا
یک دکترای هوش مصنوعی: دیپفیک میتواند پیامدهای اجتماعی، سیاسی و رسانهای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت شود
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
امنیت اطلاعات
جعل عمیق
۱۴۰۴/۱۱/۱۲
/ سایت شفقنا
ضیایی پرور: ارزشگذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد/وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر برای تشخیص واقعیت کفایت نمیکند
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
آموزش رسانهای
اعتماد به تصویر
آموزش رسانهای
اعتماد به تصویر
جعل عمیق
دیپفیک
۱۴۰۴/۱۱/۰۹
/ سایت شفقنا
گزارش گاردین: میلیونها نفر در تلگرام تصاویر برهنه دیپفیک ایجاد میکنند
شفقنا- تجزیه و تحلیلها نشان میدهد که حداقل ۱۵۰ کانال در این برنامه پیامرسان، تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی را به دلخواه خود تغییر داده و زنان بیخبر را درحال عمل جنسی یا برهنه نشان میدهند. به گزارش سرویس ترجمه شفقنا؛ تحلیل گاردین نشان داده است که میلیونها نفر در سراسر جهان [ ]
تلگرام
دیپ فیک جنسی
تلگرام
دیپ فیک جنسی
جعل عمیق
دیپ فیک
۱۴۰۴/۱۱/۰۷
/ سایت شفقنا
چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیکها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۰/۱۷
/ سایت شفقنا
درخواست انگلیس از ایلان ماسک برای رسیدگی به جعل عمیق گروک/ تامین مالی 20 میلیارد دلاری هوش مصنوعی ایکس
شفقنا- هوش مصنوعی xAI ایلان ماسک اعلام کرد: در بحبوحه واکنشهای منفی به دیپفیک گروک، 20 میلیارد دلار جمع کرده است. به گزارش سرویس ترجمه شفقنا؛ بریتانیا از ایلان ماسک، مدیرعامل شرکت ایکس، خواسته است تا فوراً به افزایش تصاویر «دیپفیک» که بنا به درخواست از طریق ربات چت هوش مصنوع گروک ایجاد میشوند، رسیدگی …
ایلان ماسک
برهنگی بانوان در گروک
ایلان ماسک
برهنگی بانوان در گروک
جعل عمیق
گروک
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
یک پژوهشگر حوزه سواد رسانهای: جعل عمیق، متهم اصلی مرگ حقیقت در عصر پسا حقیقت است/ در حوزه رسانه، جعل عمیق کار راستیآزمایی را پیچیدهتر کرده است/ اتاقهای خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد عمومی
اخلاق رسانهای
اعتماد عمومی
امنیت اطلاعاتی
جعل عمیق
۱۴۰۴/۱۰/۱۳
/ سایت شفقنا
چگونه فریب این عکسها را نخوریم؟
شفقنا رسانه- پیشرفت خیرهکننده هوش مصنوعی، بهویژه در حوزه تولید تصویر، مرز میان «واقعیت» و «ساختگی» را بهشدت باریک کرده است. به گزارش شفقنا رسانه از همشهری آنلاین امروز تصاویر جعلی نهتنها در شبکههای اجتماعی، بلکه در وبسایتهای خبری، تبلیغات و حتی پروندههای حقوقی دیده میشوند. این تحول، ضرورت ارتقای …
جعل عمیق
سواد بصری
جعل عمیق
سواد بصری
هوش مصنوعی
۱۴۰۴/۱۰/۰۶
/ سایت انرژی پرس
افزایش حجم جعل های عمیق نیز بهطور انفجاری
به گزارش انرژی پرس، در بسیاری از موقعیتهای روزمره بهویژه تماسهای ویدئویی با کیفیت پایین و محتوایی که در شبکههای اجتماعی دستبهدست میشود، میزان واقعی
افزایش جعلهای عمیق
امنیت سایبری
افزایش جعلهای عمیق
امنیت سایبری
تولیدات مصنوعی
جعلهای عمیق
۱۴۰۴/۱۰/۰۶
/ شهرآرانیوز
هوش مصنوعی جعل عمیق را از چشم انسان پنهان میکند
پیشرفت چشمگیر جعلهای عمیق در سال ۲۰۲۵ باعث شده تشخیص محتوای واقعی از مصنوعی برای افراد عادی تقریبا غیرممکن شود.
۱۴۰۴/۱۰/۰۶
/ سایت رکنا
چطور یک ویدئوی دیپ فیک می تواند این قدر واقعی باشد؟ / فیلم
رکنا: ویدئوی جعلی از نیل دِگرس تایسون با استفاده از دیپفیک منتشر شد که در آن ادعای عجیب زمین تخت مطرح میشود و بار دیگر خطر فناوری جعل عمیق را یادآور میشود.
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
۱۴۰۴/۱۰/۰۶
/ خبرگزاری ایسنا
تشخیص واقعیت از جعل عمیق دیگر ممکن نیست
در طول سال ۲۰۲۵، جعل عمیق بهطرز چشمگیری پیشرفت کرد. چهرهها، صداها و حتی اجراهای تمامقد تولیدشده با هوش مصنوعی که افراد واقعی را شبیهسازی میکنند، از نظر کیفیت فراتر از چیزی رفتند که حتی بسیاری از کارشناسان چند سال پیش انتظارش را داشتند. در عین حال، استفاده از آنها برای فریب دادن مردم نیز بهطور …
سال 2025 میلادی
جعل عمیق
سال 2025 میلادی
جعل عمیق
اوپن ایآی
Google Veo 3
۱۴۰۴/۰۹/۲۰
/ خبرگزاری ایرنا
جاسوسی آسان، تغییر مفهوم خانواده، جعل عمیق و بیکاری گسترده از تهدیدات مهم هوش مصنوعی است
تهران- ایرنا- معاون وزیر امور خارجه در سمپوزیوم حقوق بشر بر نقض حقوق بشر در حمله به تاسیسات اتمی ایران و ترور فرمانده نظامی کشورمان تاکید کرد و کارشناسان حاضر در این نشست نیز از خطرات هوش مصنوعی و لزوم توجه به حقوق بشر در مسیر توسعه این فناوری جدید گفتند.
حقوق بشر
شورای حقوق بشر
حقوق بشر
شورای حقوق بشر
وزارت امور خارجه
۱۴۰۴/۰۹/۱۶
/ سایت اقتصادنیوز
لیبل اصالت و هولوگرام: دفاع لایهای در برابر شبکههای پیشرفتهی جعل کالا
جعل کالا به یک تهدید سازمانیافته تبدیل شده است. این گزارش عمیق، استراتژی دفاع لایهای را تشریح میکند: از تکنولوژیهای پیچیدهی هولوگرام برای نفوذناپذیری نوری، تا ریبونهای مقاوم در برابر حلال، و امنیت دادهها در سامانه انبار مجازی.
هولوگرام
امنیت پیشرفته
هولوگرام
امنیت پیشرفته
ضدتقلب
جعل کالا
۱۴۰۴/۰۹/۰۷
/ سایت شفقنا
چطور بفهمیم یک ویدیو جعلی است یا واقعی؟
شفقنارسانه_ چطور میتوان فهمید یک ویدیو جعلی است یا واقعی و چگونه میتوان بدون گرفتار شدن در دام فریبهای تصویری تصمیم گرفت. به گزارش شفقنارسانه از خبرآنلاین، بسیاری از کاربران تصور میکنند فقط ویدیوهای عجیب یا بیش از حد واقعی احتمال جعلی بودن دارند. اما ویدیوهای ساده و روزمره هم امروز به کمک مدلهای …
جعل عمیق
هوش مصنوعی
جعل عمیق
هوش مصنوعی
ویدئو واقعی
ویدیو جعلی
۱۴۰۴/۰۹/۰۵
/ سایت اعتماد آنلاین
از کُردانیسم تا دِلفانیسم
۱) یک زخم قدیمی داستان جعل مدرک علی کُردان در سال ۱۳۸۷ فقط یک ماجرای سیاسی نبود؛ مقدمه ای بود بر آشکار شدن یک زخم عمیق اجتماعی. جامعه ای که لقب
دلفان
کردان
دلفان
کردان
۱۴۰۴/۰۹/۰۳
/ سایت شفقنا
یک تحقیق: یک چهارم مردم بریتانیا «نگران دیپفیکهای جنسی» نیستند
شفقنا- یک افسر ارشد پلیس بریتانیا میگوید: هوش مصنوعی خشونت علیه زنان و دختران را تسریع میکند و شرکتهای فناوری هم در این امر همدست هستند. به گزارش سرویس ترجمه شفقنا؛ گاردین نوشت: بر اساس یک نظرسنجی که به سفارش پلیس بریتانیا انجام شده، از هر چهار نفر، یک نفر فکر میکند که ایجاد و [ ]
جعل عمیق
دیپ فیک
جعل عمیق
دیپ فیک
دیپ فیک جنسی
دیپفیکهای جنسی
۱۴۰۴/۰۷/۳۰
/ سایت اینتیتر
هوش مصنوعی جدید یوتیوب با «جعل عمیق» مبارزه میکند
در عرصه همواره در حال تکامل تولید محتوا، جعلهای عمیق تولید شده توسط هوش مصنوعی، تهدیدی جدی برای سازندگان و بینندگان محسوب میشوند. برای کمک به مهار این مشکل، یوتیوب ابزار جدیدی به نام تشخیص شباهت راهاندازی کرده است.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۷/۳۰
/ خبرگزاری ایسنا
هوش مصنوعی جدید یوتیوب با «جعل عمیق» مبارزه میکند
در عرصه همواره در حال تکامل تولید محتوا، جعلهای عمیق تولید شده توسط هوش مصنوعی، تهدیدی جدی برای سازندگان و بینندگان محسوب میشوند. برای کمک به مهار این مشکل، یوتیوب ابزار جدیدی به نام تشخیص شباهت راهاندازی کرده است.
هوش مصنوعی
یوتیوب
هوش مصنوعی
یوتیوب
جعل عمیق
۱۴۰۴/۰۷/۳۰
/ سایت باشگاه خبرنگاران
هوش مصنوعی جدید یوتیوب با «جعل عمیق» مبارزه میکند
در عرصه همواره در حال تکامل تولید محتوا، جعلهای عمیق تولید شده توسط هوش مصنوعی، تهدیدی جدی برای سازندگان و بینندگان محسوب میشوند. برای کمک به مهار این مشکل، یوتیوب ابزار جدیدی به نام تشخیص شباهت راهاندازی کرده است.
هوش مصنوعی
یوتیوب
هوش مصنوعی
یوتیوب
۱۴۰۴/۰۷/۱۲
/ سایت مشرق
واکاوی طرح اسرائیل برای مشروعیتسازی رضا پهلوی در ایران
از لحظه تجاوز رژیم صهیونیستی به ایران، مهندسی روایت با «دیپفیک» (جعل عمیق) و شبکههای هماهنگ برای پیشبرد سناریوی فروپاشی کلید خورد اما چهار عامل کلیدی، مانع از موفقیت عملیات روانی دشمن شد.
۱۴۰۴/۰۷/۱۲
/ خبرگزاری ایلنا
فرار از زندان؛ کالبدشکافی طرح اسرائیل برای برگشت «ربع پهلوی» به ایران
از لحظه تجاوز رژیم صهیونیستی به ایران، مهندسی روایت با «دیپفیک» (جعل عمیق) و شبکههای هماهنگ برای پیشبرد سناریوی فروپاشی کلید خورد اما چهار عامل کلیدی، مانع از موفقیت عملیات روانی دشمن شد.
ایران
تجاوز
ایران
تجاوز
رژیم صهیونیستی
زندان
۱۴۰۴/۰۷/۱۲
/ خبرگزاری مهر
فرار از زندان؛ کالبدشکافی طرح اسرائیل برای برگشت «ربع پهلوی» به ایران
از لحظه تجاوز رژیم صهیونیستی به ایران، مهندسی روایت با «دیپفیک» (جعل عمیق) و شبکههای هماهنگ برای پیشبرد سناریوی فروپاشی کلید خورد اما چهار عامل کلیدی، مانع از موفقیت عملیات روانی دشمن شد.
۱۴۰۴/۰۷/۰۹
/ خبرگزاری ایرنا
ترامپ در برابر حقیقت؛ استفاده از «دیپ فیک»ها و جنگ اطلاعات گمراهکننده
تهران-ایرنا- دونالد ترامپ بهتازگی با انتشار دو ویدئوی «دیپ فیک» یا جعل عمیق) اعتراض مخالفانش را برانگیخت. این اقدام او بر خطر استفاده از هوش مصنوعی در انتقال پیامهای سیاسی و نگرانیهای اخلاقی متعاقب آن و موج تازه جنگهای اطلاعات گمراهکننده و نادرست تاکید دارد.
دولت ترامپ
هوش مصنوعی
دولت ترامپ
هوش مصنوعی
ایالات متحده آمریکا
دریافت اخبار بیشتر
۱۴۰۴/۰۷/۰۹ - ۱۳:۵۲:۲۴
خرید فالوور
فالوور اینستاگرام
قیمت طلا
شنبه ۹ اسفند ۱۴۰۴ -
28 February 2026
دریافت اخبار بیشتر
خرید فالوور
فالوور اینستاگرام
قیمت طلا