VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
دوشنبه ۴ اسفند ۱۴۰۴ -
23 February 2026
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
دیپ فیک
هوش مصنوعی
دیپ فیک
ایلان ماسک
۲۹ ساعت قبل / سایت خبرفوری
سودآوری آزار؛ چگونه فناوری علیه زنان شد؟ | تولید تصاویر جنسی جعلی تا کی ادامه دارد
در سالهای اخیر، همزمان با گسترش شتابزده ابزارهای هوش مصنوعی، نگرانیها درباره پیامدهای اجتماعی و انسانی این فناوری نیز بهطور چشمگیری افزایش یافته است.
زنان
دیپ فیک
زنان
دیپ فیک
۳۹ ساعت قبل / روزنامه دنیای اقتصاد
زندگی با AI: هدیه یا خطر؟
از کلاسهای درس و بیمارستانها گرفته تا مراکز تماس و آزمایشگاههای پیشرفته، هوش مصنوعی به یک شریک پنهان در تصمیمگیریها و انجام کارهای تکراری تبدیل شده است. این فناوری میتواند بار کاری انسانها را سبک کند و سرعت و دسترسی را افزایش دهد، اما همزمان خطراتی مانند اشتباهات مقیاسپذیر، سوءاستفاده از دیپفیکها …
بودجه
بیمارستان
بودجه
بیمارستان
زندگی روزمره
فناوری
۴۶ ساعت قبل / سایت صفحه اقتصاد
ترند کاریکاتور هوش مصنوعی؛ سرگرمی یا دروازهای به سرقت هویت؟
همزمان با فراگیر شدن ترند ساخت کاریکاتورهای هوش مصنوعی در شبکههای اجتماعی، متخصصان امنیت سایبری نسبت به پیامدهای پنهان بارگذاری تصاویر شخصی هشدار میدهند؛ تصاویری که میتوانند به ابزاری برای جعل هویت، تولید دیپفیک و کلاهبرداریهای هدفمند تبدیل شوند.
هوش مصنوعی
فیشینگ
هوش مصنوعی
فیشینگ
دیپفیک
سرقت هویت
۴ روز قبل / ۱۴۰۴/۱۱/۳۰ / سایت شفقنا
نخست وزیر انگلیس: شرکتهای فناوری باید ظرف ۴۸ ساعت «پورن انتقامی» را حذف کنند یا مسدود میشوند
شفقنا- استارمر میگوید شرکتهای فناوری باید ظرف ۴۸ ساعت «پورن انتقامی» را حذف کنند یا در معرض خطر مسدود شدن قرار گیرند. به گزارش سرویس ترجمه شفقنا؛ کر استارمر در مصاحبهای با گاردین گفته است: تصاویر برهنه دیپفیک و «پورن انتقامی» باید ظرف ۴۸ ساعت از اینترنت حذف شوند، در غیر این صورت شرکتهای فناوری …
انگلیس
پورن انتقامی
انگلیس
پورن انتقامی
تصاویر جنسی
گروک
۱۴۰۴/۱۱/۲۹
/ روزنامه دنیای اقتصاد
گراک زیر ذرهبین دولتها
دنیای اقتصاد: دولتها و نهادهای نظارتی در جهان در حال واکنش به محتوای مستهجن تولیدشده توسط چتبات گراک ایلان ماسک هستند. اتحادیه اروپا، بریتانیا، اسپانیا و ایرلند تحقیقات گستردهای درباره انتشار دیپفیکها و احتمال سوءاستفاده از دادههای شخصی آغاز کردهاند. به نقل از رویترز، در آسیا، هند، ژاپن و اندونزی …
اتحادیه اروپا
ایرلند
اتحادیه اروپا
ایرلند
بریتانیا
دولت
۱۴۰۴/۱۱/۲۵
/ سایت خبرآنلاین
دعوای تام کروز و برد پیت جهانی شد
با انتشار ویدیویی از هوش مصنوعی که تام کروز و برد پیت را در حال مبارزه نشان میدهد، انجمن تصاویر متحرک، نقض گسترده حق نشر توسط «سی دنس» را محکوم کرد.
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
برد پیت
تام کروز
۱۴۰۴/۱۱/۲۳
/ سایت خبرآنلاین
شگرد ترسناک هکرهای کره شمالی برای سرقت اطلاعات
هکرهای کره شمالی با ویدیوهای جعلی هوش مصنوعی بدافزارهای خطرناکی را وارد سیستمهای ویندوز و مک میکنند. حتی دیگر نمیتوانیم به چشمهای خودمان هم اعتماد کنیم.
کره شمالی
بدافزار
کره شمالی
بدافزار
دیپ فیک
حوادث و اتفاقات عجیب
۱۴۰۴/۱۱/۲۲
/ سایت شفقنا
هند محدودیتهایی برای رسانههای اجتماعی مبتنی بر هوش مصنوعی وضع میکند
شفقنا دولت فدرال هند روز سهشنبه اعلام کرد که این کشور محدودیتهایی را برای محتوای هوش مصنوعی در پلتفرمهای رسانههای اجتماعی اعمال کرده است. این محدودیتها از ۲۰ فوریه اعمال خواهند شد. به گزارش سرویس ترجمه شفقنا، این محدودیتها تصریح میکنند که محتوای تولیدشده توسط هوش مصنوعی باید به طور برجسته …
دیپفیک
هند
دیپفیک
هند
هوش مصنوعی
۱۴۰۴/۱۱/۲۱
/ سایت شفقنا
دکتر حسین امامی: در عصر دیپفیک، تصویر از جایگاه داور به جایگاه متهم منتقل شده است/ خطر اصلی دیپفیک دروغگویی نیست؛ بیاثر شدن حقیقت است
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
جعل عمیق
حقیقتسنجی رسانهای
۱۴۰۴/۱۱/۲۰
/ سایت شفقنا
آخرین اخبار شفقنا از حوزه فناوری و هوش مصنوعی؛ از خطر عروسکهای هوشمند تا سیل متون تولیدشده با هوش مصنوعی
شفقنا رسانه- در عصر دیجیتال هر روز شاهد اخبار جدیدی در حوزه فناوری و تکنولوژی های روز دنیا هستیم به نحوی که تحولات این حوزه و رقابت بر سر دستیابی به تازه ترین دانش های مرتبط با آن به بخش جدایی ناپذیر از زندگی روزمره بشر و اولویت حیاتی کشورهای توسعه یافته تبدیل شده است. به [ ]
xAI
آینده تکنولوژی
xAI
آینده تکنولوژی
ایلان ماسک
دیپفیک
۱۴۰۴/۱۱/۱۶
/ سایت دیدارنیوز
دلیل یورش پلیس فرانسه به دفاتر ایکس و احضار ایلان ماسک چیست؟
دادستانهای فرانسوی پس از جستجوی دفاتر ایکس در پاریس، به عنوان بخشی از تحقیق درباره توزیع تصاویر هرزهنگاری کودکان و انتشار دیپ فیکهای مستهجن، ایلان ماسک را برای پاسخگویی احضار کردهاند.
شبکه ایکس
ایلان ماسک
شبکه ایکس
ایلان ماسک
فرانسه
۱۴۰۴/۱۱/۱۶
/ سایت شفقنا
یک دکترای هوش مصنوعی: دیپفیک میتواند پیامدهای اجتماعی، سیاسی و رسانهای مخربی به همراه داشته باشد / برای مقابله با آثار مخرب دیپ فیک باید رویکرد تأمل و ارزیابی انتقادی تقویت شود
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانه
اعتماد عمومی
اخلاق رسانه
اعتماد عمومی
امنیت اطلاعات
جعل عمیق
۱۴۰۴/۱۱/۱۶
/ سایت شفقنا
بریتانیا با مایکروسافت برای ساخت سیستم تشخیص دیپفیک همکاری میکند
شفقنا- دولت بریتانیا روز پنجشنبه اعلام کرد با مایکروسافت، دانشگاهیان و متخصصان برای توسعه سیستمی جهت شناسایی محتوای دیپ فیک آنلاین همکاری خواهد کرد. به گزارش سرویس ترجمه شفقنا؛ رویترز نوشت: در حالی که محتوای دستکاری شده برای دههها به صورت آنلاین منتشر شده است، پذیرش سریع چتباتهای مولد هوش مصنوعی …
دیپفیک
دیپفیک برهنه
دیپفیک
دیپفیک برهنه
مایکروسافت
دیپ فیک
۱۴۰۴/۱۱/۱۵
/ خبرگزاری همشهریآنلاین
حمله به دفتر ایکس در پاریس
دادستانهای فرانسوی پس از جستجوی دفاتر ایکس در پاریس، به عنوان بخشی از تحقیق درباره توزیع تصاویر هرزهنگاری کودکان و انتشار دیپ فیکهای مستهجن، ایلان ماسک را برای پاسخگویی احضار کردهاند.
ایلان ماسک
پاریس
ایلان ماسک
پاریس
شبکه اجتماعی
دانلود اهنگ جدید
۱۴۰۴/۱۱/۱۵
/ سایت کولاک
حمله به دفتر ایکس در پاریس - مجله اینترنتی کولاک
دادستانهای فرانسوی پس از جستجوی دفاتر ایکس در پاریس، به عنوان بخشی از تحقیق درباره توزیع تصاویر هرزهنگاری کودکان و انتشار دیپ فیکهای مستهجن، ایلان ماسک را
۱۴۰۴/۱۱/۱۵
/ سایت مشرق
یورش پلیس فرانسه به دفاتر ایکس
دادستانهای فرانسوی پس از جستجوی دفاتر ایکس در پاریس، به عنوان بخشی از تحقیق درباره توزیع تصاویر هرزهنگاری کودکان و انتشار دیپ فیکهای مستهجن، ایلان ماسک را برای پاسخگویی احضار کردهاند.
ایلان ماسک
فرانسه
ایلان ماسک
فرانسه
حوادث بین الملل
پلیس فرانسه
۱۴۰۴/۱۱/۱۵
/ سایت اکونیوز
یورش پلیس به دفاتر ایکس و احضار ایلان ماسک - اکونیوز
اقتصاد ایران: دادستان های فرانسوی پس از جستجوی دفاتر ایکس در پاریس، به عنوان بخشی از تحقیق درباره توزیع تصاویر هرزه نگاری کودکان و انتشار دیپ فیک های مسته
اقتصادایران
اقتصادایران
۱۴۰۴/۱۱/۱۵
/ خبرگزاری مهر
یورش پلیس فرانسه به دفاتر ایکس و احضار ایلان ماسک
دادستانهای فرانسوی پس از جستجوی دفاتر ایکس در پاریس، به عنوان بخشی از تحقیق درباره توزیع تصاویر هرزهنگاری کودکان و انتشار دیپ فیکهای مستهجن، ایلان ماسک را برای پاسخگویی احضار کردهاند.
حاکمیت سایبری در خارج
توئیتر(ایکس)
حاکمیت سایبری در خارج
توئیتر(ایکس)
ایلان ماسک
فرانسه
۱۴۰۴/۱۱/۱۴
/ سایت شفقنا
واکنش دوروف به یورش واحد جرایم سایبری پاریس به دفتر ماسک؛ فرانسه کشوری «آزاد» نیست
شفقنا پاول دوروف، بنیانگذار تلگرام، پس از یورش به دفاتر ایلان ماسک در پاریس، فرانسه را محکوم کرد و گفت که این کشور «کشوری آزاد» نیست. به گزارش سرویس ترجمه شفقنا، این جستجو بخشی از تحقیقات در مورد هوش مصنوعی گروکِ این شبکه اجتماعی و ادعاها درباره تولید تصاویر دیپفیک جنسی از زنان و [ ]
ایکس
ایلان ماسک
ایکس
ایلان ماسک
پاول دوروف
۱۴۰۴/۱۱/۱۳
/ سایت عصرایران
وقتی مدیر امنیت سایبری هم فریب میخورد؛ روایت یک مصاحبه شغلی با هوش مصنوعی
کارشناس برجسته امنیت، در یک مصاحبه شغلی با کارجویی مواجه شد که وجود خارجی نداشت
هوش مصنوعی
مصاحبه
هوش مصنوعی
مصاحبه
دیپ فیک
۱۴۰۴/۱۱/۱۲
/ سایت شفقنا
ضیایی پرور: ارزشگذاری اخلاقی دیپ فیک به نوع کاربرد، زمینه استفاده و نیت تولیدکننده بستگی دارد/وارد دورهای شدهایم که شواهد بصری بهتنهایی دیگر برای تشخیص واقعیت کفایت نمیکند
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
آموزش رسانهای
اعتماد به تصویر
آموزش رسانهای
اعتماد به تصویر
جعل عمیق
دیپفیک
۱۴۰۴/۱۱/۱۰
/ سایت شفقنا
معاون آموزش انجمن سواد رسانهای ایران: دیپفیک علاوه بر یک فناوری، چالشی شناختی و رسانهای است/ جامعهای که دیگر به تصویر هم اعتماد ندارد، در برابر جنگ روانی بسیار آسیبپذیر است
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اعتبار رسانه
اعتماد عمومی
اعتبار رسانه
اعتماد عمومی
امنیت اطلاعات
جنگ روانی
۱۴۰۴/۱۱/۰۹
/ سایت شفقنا
یک پژوهشگر حوزه هوش مصنوعی: با گسترش دیپ فیک اتکای صرف به مشاهده برای اعتبارسنجی یک محتوا ضعیف شده است/ کاهش اعتبار تصویر و ویدئو پیامدهای سیاسی و امنیتی جدی به همراه دارد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق حرفهای رسانه
اعتماد عمومی به رسانه
اخلاق حرفهای رسانه
اعتماد عمومی به رسانه
امنیت اطلاعات
جعلیسازی ویدئو
۱۴۰۴/۱۱/۰۹
/ سایت شفقنا
گزارش گاردین: میلیونها نفر در تلگرام تصاویر برهنه دیپفیک ایجاد میکنند
شفقنا- تجزیه و تحلیلها نشان میدهد که حداقل ۱۵۰ کانال در این برنامه پیامرسان، تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی را به دلخواه خود تغییر داده و زنان بیخبر را درحال عمل جنسی یا برهنه نشان میدهند. به گزارش سرویس ترجمه شفقنا؛ تحلیل گاردین نشان داده است که میلیونها نفر در سراسر جهان [ ]
تلگرام
دیپ فیک جنسی
تلگرام
دیپ فیک جنسی
جعل عمیق
دیپ فیک
۱۴۰۴/۱۱/۰۷
/ سایت شفقنا
چه راهکارهایی برای زنده ماندن حقیقت در عصر دیپ فیکها وجود دارد؟ یک دکترای هوش مصنوعی در گفتگو با شفقنا توضیح می دهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۱/۰۷
/ خبرگزاری میزان
هشدارها درباره افزایش تهدیدهای هوش مصنوعی علیه کودکان
حجم بالای محتوای آنلاین مضر تولیدشده توسط هوش مصنوعی، درخواست فوری از سراسر سیستم سازمان ملل را برای اتخاذ مجموعهای از اقدامها برای محافظت از کودکان در برابر سوءاستفاده، استثمار و آسیبهای روانی برانگیخته است.
هوش مصنوعی
ai
هوش مصنوعی
ai
دیپ فیک
کودکان
۱۴۰۴/۱۰/۲۱
/ سایت توسعه برند
اندونزی دسترسی به «گروک» را به دلیل دیپفیکهای جنسی بدون رضایت مسدود کرد
مقامات اندونزی روز شنبه اعلام کردند که دسترسی به چتبات «گروک» متعلق به شرکت xAI را بهطور موقت مسدود کردهاند.
۱۴۰۴/۱۰/۱۷
/ خبرگزاری ایسکانیوز
عبور از مرز واقعیت و جعل؛ هشدار قرمز پلیس فتا کرمان درباره فریبهای هوش مصنوعی
رئیس پلیس فتا استان کرمان با هشدار نسبت به موج جدید تولید محتواهای جعلی (دیپفیک) علیه شخصیتهای نظامی و رسمی، تأکید کرد که طبق قانون، تولید و حتی بازنشر این تصاویر و ویدئوها جرم تلقی شده و پروندههای متخلفان بدون اغماض راهی مراجع قضایی میشود.
کرمان
اینستاگرام
کرمان
اینستاگرام
۱۴۰۴/۱۰/۱۷
/ سایت شفقنا
درخواست انگلیس از ایلان ماسک برای رسیدگی به جعل عمیق گروک/ تامین مالی 20 میلیارد دلاری هوش مصنوعی ایکس
شفقنا- هوش مصنوعی xAI ایلان ماسک اعلام کرد: در بحبوحه واکنشهای منفی به دیپفیک گروک، 20 میلیارد دلار جمع کرده است. به گزارش سرویس ترجمه شفقنا؛ بریتانیا از ایلان ماسک، مدیرعامل شرکت ایکس، خواسته است تا فوراً به افزایش تصاویر «دیپفیک» که بنا به درخواست از طریق ربات چت هوش مصنوع گروک ایجاد میشوند، رسیدگی …
ایلان ماسک
برهنگی بانوان در گروک
ایلان ماسک
برهنگی بانوان در گروک
جعل عمیق
گروک
۱۴۰۴/۱۰/۱۶
/ سایت شفقنا
آموزش سواد هوش مصنوعی به برنامه درسی مدارس فنلاند اضافه شد
شفقنا رسانه- پیشرفت چشمگیر دیپفیکها در فضای آنلاین باعث شده تا فنلاند سواد هوش مصنوعی را به برنامه درسی مدارس خود اضافه کند تا کودکان هم بتوانند اخبار جعلی تولیدشده با هوش مصنوعی را تشخیص دهند. به گزارش شفقنا رسانه از سیتنا، با گسترش دیپفیکها در فضای آنلاین، فنلاند سواد هوش مصنوعی را به برنامه …
آموزش سواد هوش مصنوعی
هوش مصنوعی
آموزش سواد هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۱۰/۱۶
/ خبرگزاری ایسنا
تحقیقات جهانی از فعالیت موهن گروک
چتبات هوش مصنوعی گروک شرکت «ایکس» ایلان ماسک پس از آنکه تصاویر موهن دیپفیک که برخی از آنها سوءاستفاده از کودکان را نشان میدهند را به درخواست کاربرانش تولید کرد، با تحقیقات نظارتی در اروپا، هند و مالزی روبرو است.
گروک
شبکه اجتماعی ایکس
گروک
شبکه اجتماعی ایکس
ایلان ماسک
۱۴۰۴/۱۰/۱۶
/ سایت سیتنا
آموزش سواد هوش مصنوعی به دانش آموزان فنلاندی
پیشرفت چشمگیر دیپفیکها در فضای آنلاین باعث شده تا فنلاند سواد هوش مصنوعی را به برنامه درسی مدارس خود اضافه کند تا کودکان هم بتوانند اخبار جعلی تولیدشده با هوش مصنوعی را تشخیص دهند.
فنلاند
هوش مصنوعی
فنلاند
هوش مصنوعی
فناوری
آموزش
۱۴۰۴/۱۰/۱۵
/ سایت خبرآنلاین
«دیپفیکهای» مادورو چگونه ساخته شد و چطور میتوان آنها را تشخیص داد؟ / جنگی فراتر از حمله نظامی؛ ۱۱۱ میلیون تعامل با محتوای جعلی در ۲۴ ساعت
بحران ژئوپلیتیک ژانویه ۲۰۲۶ در ونزوئلا و حمله نظامی ایالات متحده به کاراکاس، نه تنها یک تغییر بنیادین در موازنه قدرت منطقهای آمریکای لاتین ایجاد کرد، بلکه به عنوان نخستین نمونه از «جنگ تمامعیار اطلاعاتی مبتنی بر هوش مصنوعی» در تاریخ ثبت شد. این عملیات با موجی بیسابقه از تولیدات بصری سنتتیک و دیپفیک …
هوش مصنوعی
عکس
هوش مصنوعی
عکس
دیپ فیک
مادورو
۱۴۰۴/۱۰/۱۵
/ خبرگزاری ایسنا
تصاویر جعلی از رئیس جمهور ربودهشده که میلیونها نفر را فریب داد
پس از آنکه در صبح سوم ژانویه ۲۰۲۶، دونالد ترامپ اعلام کرد نیروهای آمریکایی نیکلاس مادورو را دستگیر کردهاند، از میان تصاویری که ادعا میکردند لحظۀ دستگیری رئیس جمهور ونزوئلا را نشان میدهند، یکی بیش از همه مردم را فریب داد و میلیونها نفر آن را باور کردند. غافل از اینکه در عصری که هوش مصنوعی میتواند …
هوش مصنوعی
تصویر جعلی از مادورو
هوش مصنوعی
تصویر جعلی از مادورو
نیکولاس مادورو
دستگیری نیکولاس مادورو
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
یک پژوهشگر حوزه سواد رسانهای: جعل عمیق، متهم اصلی مرگ حقیقت در عصر پسا حقیقت است/ در حوزه رسانه، جعل عمیق کار راستیآزمایی را پیچیدهتر کرده است/ اتاقهای خبر باید محتوای مشکوک را از نظر فنی بررسی و تأثیرات اجتماعی آن را ارزیابی کنند
شفقنا رسانه– امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد عمومی
اخلاق رسانهای
اعتماد عمومی
امنیت اطلاعاتی
جعل عمیق
۱۴۰۴/۱۰/۱۵
/ خبرگزاری برنا
فرانسه و مالزی تولید دیپفیکهای جنسی در گراک را بررسی میکنند
برنا - گروه علمی و فناوری: مقامات فرانسه و مالزی از آغاز بررسیهای رسمی درباره تولید دیپفیکهای جنسی توسط چتبات گراک خبر دادند.
گراک
هوش مصنوعی
گراک
هوش مصنوعی
ایکس
ایلان ماسک
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
چگونه در دام تصاویر جعلی نیفتیم؟
شفقنا رسانه- امروزه تصاویر جعلی فقط به شبکههای اجتماعی محدود نیستند و میتوان آنها را در وبسایتهای خبری، آگهیهای تبلیغاتی و حتی پروندههای حقوقی مشاهده کرد. همین موضوع باعث شده نیاز به تقویت سواد بصری دیجیتال بیش از گذشته احساس شود و کاربران یاد بگیرند چگونه تصاویر مبتنی بر هوش مصنوعی را تشخیص …
تصاویر جعلی
دیپ فیک
تصاویر جعلی
دیپ فیک
۱۴۰۴/۱۰/۱۳
/ سایت تکناک
گراک زیر ذرهبین دولتها؛ تصاویر نامناسب کاربران X جنجالساز شد
سوءاستفاده از مولد تصویر گراک در X موجی از بحثهای حقوقی و اخلاقی درباره دیپفیکها و مسئولیت پلتفرمها ایجاد کرده است.
۱۴۰۴/۱۰/۱۳
/ سایت شفقنا
در عصر دیپ فیکها چگونه می توان به حقیقت دست یافت؟/ مریم سلیمی: باور «شنیدن کی بود مانند دیدن» با گسترش دیپ فیکها رنگ باخته است / حقیقت دیگر صرفاً دیده نمیشود، بلکه باید اثبات شود/ در حال گذر از عصر «اعتماد بصری» به «بی اعتمادی بصری» هستیم/ تنها راه برونرفت، تقویت سواد رسانهای و نهادینهکردن پروتکلهای حرفهای راستیآزمایی است/ خطری بالاتر از دیپ فیک؛ جعل تجربه و جایگزینی باور به جای سند در راه است
شفقنا رسانه امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اخلاق رسانهای
اعتماد رسانهای
اخلاق رسانهای
اعتماد رسانهای
بحران اعتماد عمومی
جعل تجربه
۱۴۰۴/۱۰/۱۲
/ سایت آخرین خبر
چطور «دیپفیکها» میتوانند فاجعه جنگ هستهای را رقم بزنند
ایسنا/متن پیش رو در ایسنا منتشر شده و بازنشرش در آخرین خبر به معنای تاییدش نیست گسترش سریع فناوریهای هوش مصنوعی، بهویژه دیپفیکها، خطر بروز خطاهای مرگبار در تصمیمگیریهای هستهای را افزایش داده و میتواند جهان را بهسوی یک جنگ هستهای ناخواسته سوق دهد. رسانه آمریکایی در مقالهای تأکید میکند که
دیپ فیک
جنگ هستهای
دیپ فیک
جنگ هستهای
۱۴۰۴/۱۰/۱۱
/ سایت باشگاه خبرنگاران
مراقب کلاهبرداری با دیپ فیکها باشید + فیلم
دیپ فیک به ویدیوهایی هایی گفته میشود که با استفاده از هوش مصنوعی از یک شخصیت مشهور ساخته میشود و با گسترده شدن هوش مصنوعی به ابزار کلاهبرداری تبدیل شده است.
دیپ فیک
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
هوش مصنوعی
۱۴۰۴/۱۰/۱۱
/ سایت شفقنا
حقیقت در عصر دیپ فیک چگونه زنده میماند؟ یک مدرس سواد رسانه ای و بصری پاسخ میدهد
شفقنا رسانه- امروزه با پیشرفت فناوری دیپفیک، تصاویر و ویدیوهای جعلی فراوانی در شبکههای اجتماعی منتشر میشوند و تشخیص صحت آنها روزبهروز سختتر شده است. این وضعیت باعث کاهش اعتماد عمومی به «حقیقت بصری» و تردید در اعتبار محتوای بصری شده است. در چنین شرایطی چگونه می توان به حقیقت دست یافت و مسئولیت …
اعتماد عمومی
امنیت اطلاعات
اعتماد عمومی
امنیت اطلاعات
جعلیسازی ویدیو
حقیقت بصری
۱۴۰۴/۱۰/۱۱
/ سایت فرارو
دیپفیکها و هوش مصنوعی؛ زنگ خطر جنگ هستهای
گسترش فناوریهای هوش مصنوعی، بهویژه دیپفیکها، خطر تصمیمگیری اشتباه در امور هستهای را افزایش داده و میتواند جهان را به مرز یک جنگ ناخواسته هستهای نزدیک کند.
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
۱۴۰۴/۱۰/۱۰
/ سایت تابناک
دیپفیکها فاجعه آخرالزمانی میسازند!
گسترش سریع فناوریهای هوش مصنوعی، بهویژه دیپفیکها، خطر بروز خطاهای مرگبار در تصمیمگیریهای هستهای را افزایش داده و میتواند جهان را بهسوی یک جنگ هستهای ناخواسته سوق دهد.
آمریکا
روسیه
آمریکا
روسیه
حملات هسته ای
جنگ هسته ای
۱۴۰۴/۱۰/۱۰
/ خبرگزاری ایسنا
چطور «دیپفیکها» میتوانند فاجعه آخرالزمانی را موجب شوند
گسترش سریع فناوریهای هوش مصنوعی، بهویژه دیپفیکها، خطر بروز خطاهای مرگبار در تصمیمگیریهای هستهای را افزایش داده و میتواند جهان را بهسوی یک جنگ هستهای ناخواسته سوق دهد.
آمریکا
روسیه
آمریکا
روسیه
جنگ هستهای
حملات هستهای
۱۴۰۴/۱۰/۰۹
/ سایت تجارت نیوز
چگونه دیپفیکها میتواند حمله آخرالزمانی را رقم بزنند؟
با محو شدن مرزها بین اطلاعات واقعی و جعلی، احتمال بالایی وجود دارد که این دیپفیکها بتوانند تصمیمات حساس مربوط به امنیت ملی، از جمله تصمیمات مربوط به سلاحهای هستهای، را تحت تاثیر قرار دهند. اگر اطلاعات غلط حتی برای چند دقیقه هم بتواند رئیسجمهور ایالات متحده را فریب دهد، ممکن است برای جهان فاجعهبار …
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۱۰/۰۶
/ سایت رکنا
چطور یک ویدئوی دیپ فیک می تواند این قدر واقعی باشد؟ / فیلم
رکنا: ویدئوی جعلی از نیل دِگرس تایسون با استفاده از دیپفیک منتشر شد که در آن ادعای عجیب زمین تخت مطرح میشود و بار دیگر خطر فناوری جعل عمیق را یادآور میشود.
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۹/۲۹
/ سایت سیتنا
هوش مصنوعی در دوراهی پیشرفت و تهدید؛ افراطگرایی در کمین فناوری نوین
همزمان با گسترش سریع ابزارهای هوش مصنوعی در جهان، کارشناسان امنیتی و پژوهشگران هشدار میدهند که گروههای افراطگرا و تندرو نیز در حال بهرهبرداری از این فناوری نوین برای تبلیغات، جذب نیرو و عملیات روانی هستند؛ موضوعی که نگرانیهای تازهای درباره سوءاستفاده از هوش مصنوعی ایجاد کرده است.
هوش مصنوعی
تهدید
هوش مصنوعی
تهدید
دیپ فیک
ویدئوی جعلی
۱۴۰۴/۰۹/۲۹
/ خبرگزاری همشهریآنلاین
جنجال در فرانسه | چگونه دیپفیکها را تشخیص دهیم؟
دیپفیکها با سرعتی بیسابقه در حال فراگیر شدن هستند و در کنار جذابیتهای فناورانه، خطری جدی برای اعتماد عمومی، حقیقت و امنیت فردی و اجتماعی ایجاد کردهاند.
سایبر
هوش مصنوعی
سایبر
هوش مصنوعی
جرایم سایبر
اینترنت
۱۴۰۴/۰۹/۲۹
/ سایت کلبه سرگرمی
جنجال در فرانسه | چگونه دیپفیکها را تشخیص دهیم؟ - کلبه سرگرمی
دیپفیکها با سرعتی بیسابقه در حال فراگیر شدن هستند و در کنار جذابیتهای فناورانه، خطری جدی برای اعتماد عمومی، حقیقت و امنیت فردی و اجتماعی ایجاد کردهاند.
۱۴۰۴/۰۹/۲۷
/ خبرگزاری ایرنا
کودتای جعلی در فرانسه، نگرانی واقعی در آفریقا؛ به عصر دیپفیکهای میلیونی خوش آمدید!
تهران- ایرنا- انتشار گسترده یک ویدیوی جعلی تولیدشده با هوش مصنوعی و به تصویر کشیدن صحنههایی ساختگی از پوشش خبری یک «کودتای نظامی در فرانسه»، بار دیگر زنگ خطر سوءاستفاده از فناوریهای نوین را برای بیثباتسازی سیاسی و رسانهای در سطح ملی و بینالمللی به صدا درآورد.
فرانسه
امانوئل مکرون
فرانسه
امانوئل مکرون
اروپا
آفریقا
۱۴۰۴/۰۹/۲۷
/ روزنامه دنیای اقتصاد
کودتا در فرانسه!/ انتشار یک ویدئو ساخته شده با هوش مصنوعی همه را حیرتزده کرد!+ فیلم
انتشار گسترده یک ویدیوی جعلی تولیدشده با هوش مصنوعی و به تصویر کشیدن صحنههایی ساختگی از پوشش خبری یک «کودتای نظامی در فرانسه»، بار دیگر زنگ خطر سوءاستفاده از فناوریهای نوین را برای بیثباتسازی سیاسی و رسانهای در سطح ملی و بینالمللی به صدا درآورد.
فرانسه
هوش مصنوعی
فرانسه
هوش مصنوعی
کودتا
دیپ فیک
۱۴۰۴/۰۹/۲۷
/ سایت خبرآنلاین
فرانسه، کودتا و ویدیویی که همهچیز را به هم ریخت / پیامی که مکرون را شوکه کرد: «در کشور شما چه خبر است؟»
ویدیوی جعلی ادعای کودتا در فرانسه که با استفاده از هوش مصنوعی ساخته شده، در شبکههای اجتماعی بهسرعت فراگیر شد و میلیونها بار در فیسبوک و دیگر پلتفرمها بازدید داشت.
هوش مصنوعی
امانوئل مکرون
هوش مصنوعی
امانوئل مکرون
دیپ فیک
۱۴۰۴/۰۹/۲۷
/ سایت سیتنا
خشونت دیجیتال؛ تهدیدی روبهگسترش که زنان را از فضای آنلاین پس میزند
خشونت دیجیتالی به یکی از سریعترین اشکال روبهگسترش آزار و سوءاستفاده در جهان تبدیل شده است؛ پدیدهای که از ترولینگ و تعقیب مجازی تا دیپفیک و افشای اطلاعات شخصی را دربرمیگیرد و بنا بر گزارش سازمان ملل، میلیونها زن و دختر را هر ساله هدف قرار داده و مشارکت آنها در فضای اینترنت را بهشدت محدود میکند.
خشونت علیه زنان
شبکه اجتماعی
خشونت علیه زنان
شبکه اجتماعی
پلتفرم
فضای مجازی
۱۴۰۴/۰۹/۲۷
/ خبرگزاری ایرنا
هوش مصنوعی مقابل اخبار جعلی؛ یار شاطر یا بار خاطر؟
تهران- ایرنا- هوش مصنوعی در اکوسیستم اطلاعاتی امروز، نقشی دوگانه ایفا میکند. این فناوری از سویی با ابزارهایی چون «دیپفیک» و «رباتهای اجتماعی»، سرعت، حجم و پیچیدگی تولید اخبار جعلی را به سطحی بیسابقه رسانده و از سوی دیگر، قدرتمندترین ابزار را برای پایش حجم عظیم دادهها و شناسایی الگوهای فریب در اختیار …
۱۴۰۴/۰۹/۲۵
/ سایت اکوایران
هوش مصنوعی؛ یک جایزه برای تروریست های داعش؟ | گروههای شبهنظامی درحال آزمون و خطا هستند
اکو ایران: احتمال استفاده گروههای شبهنظامی از هوش مصنوعی برای کمک به تولید سلاحهای بیولوژیک یا شیمیایی است تا کمبود تخصص فنی خود را جبران کنند نگران کننده است. این خطر در ارزیابی بهروز تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است.
هوش مصنوعی
تروریست
هوش مصنوعی
تروریست
آسوشیتدپرس
دیپ فیک
۱۴۰۴/۰۹/۲۰
/ سایت شفقنا
بازار داغ دیپفیک در آمریکا؛ فرماندار کالیفرنیا، ترامپ را دستگیر کرد
شفقنا گوین نیوسام، فرماندار دموکرات کالیفرنیا، روز چهارشنبه با انتشار یک ویدیوی تولید شده توسط هوش مصنوعی، که در آن دونالد ترامپ، رئیسجمهور آمریکا و وزیر جنگ او، پیت هگست و استیون میلر، مشاور ارشدش را دستبند زده و گریان نشان میدهد، جنجال جدیدی به پا کرد. این ویدیو واکنشی مستقیم به ویدیوی مشابهی …
آمریکا
دونالد ترامپ
آمریکا
دونالد ترامپ
هوش مصنوعی
۱۴۰۴/۰۹/۱۷
/ سایت گیمفا
شیوه عجیب کلاهبرداری ۲۵ میلیون دلاری در هنگکنگ! - گیمفا
در یکی از بزرگترین و عجیبترین پروندههای کلاهبرداری سایبری، یک شرکت چندملیتی در هنگکنگ قربانی فناوری دیپفیک شد. این شیوه متفاوت کلاهبرداری توجه متخصصان هوش مصنوعی و فناوری را به خود جلب کرده است. شیوه عجیب کلاهبرداری 25 میلیون دلاری در هنگکنگ!
۱۴۰۴/۰۹/۱۶
/ سایت افکارنیوز
رسوایی بزرگ موساد / پشت پرده ویدیوهای دیپفیک علیه ایران +عکس
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران
پشت پرده
ایران
پشت پرده
شبکه های اجتماعی
لبنان
۱۴۰۴/۰۹/۱۶
/ سایت اینتیتر
تصاویر حمله به ایران «کارتونی» از آب درآمد! + سند | رسوایی بزرگ موساد | پشت پرده ویدیوهای دیپفیک علیه ایران
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران
ایران
۱۴۰۴/۰۹/۱۶
/ خبرگزاری همشهریآنلاین
تصاویر حمله به ایران «کارتونی» از آب درآمد! + سند | رسوایی بزرگ موساد | پشت پرده ویدیوهای دیپفیک علیه ایران
برخی حسابهای کاربری حامی اسرائیل این ویدیوها را به صورت گسترده همرسانی کردهاند. این حسابها مدعی شدند که این تصاویر در واقع اطلاعات فاششدهای هستند که در شبکههای اجتماعی منتشر شدهاند.اما همه جعلی است.
ایران و اسرائیل
هوش مصنوعی
ایران و اسرائیل
هوش مصنوعی
۱۴۰۴/۰۹/۱۵
/ سایت رمز ارز نیوز
افشای کلاهبرداری ۷۵۰ میلیون دلاری؛ مراقب دیپفیکها و هوش مصنوعی باشید!
یک عملیات بینالمللی پلیسی، شبکهای پیچیده از کلاهبرداری و پولشویی رمزارزی را در چندین کشور متلاشی و بیش از ۷۰۰ میلیون یورو (حدود ۷۵۰ میلیون دلار) از ضررهای قربانیان را افشا کرد. این شبکه با ایجاد سایتهای جعلی سرمایهگذاری و تبلیغات حرفهای، از جمله استفاده از تأییدهای دروغین سلبریتیها و سیاستمداران …
۱۴۰۴/۰۹/۱۴
/ سایت شارا
دیپفیکها در انتخابات ۲۰۲۵: چگونه محتوای جعلی را تشخیص دهیم و اعتماد عمومی را حفظ کنیم - شارا
دیپفیکها تهدیدی جدی برای انتخابات ۲۰۲۵ هستند؛ تشخیص و مقابله با محتوای جعلی با آگاهی و بررسی منابع ضروری است.
۱۴۰۴/۰۹/۱۳
/ سایت فرتاک
راهنمای شناسایی ویدیوهای جعلی؛ نشانهها و ابزارهای کشف «دیپفیک»
با گسترش فناوریهای مبتنی بر هوش مصنوعی، تولید ویدیوهای جعلی موسوم به «دیپفیک» به یکی از چالشهای جدی در حوزه امنیت دیجیتال و راستیآزمایی محتوای آنلاین تبدیل شده است.
هوش مصنوعی
دیپفیک
هوش مصنوعی
دیپفیک
۱۴۰۴/۰۹/۱۲
/ مجله پیوست
احراز هویت با اسکن چشم میتواند به راهکاری برای حفظ امنیت پرداخت در عصر هوش مصنوعی و دیپفیکها تبدیل شود - پیوست
با افزایش تهدیدهای امنیتی و گسترش روشهای جعل هویت مبتنی بر هوش مصنوعی، شرکتهای فناوری بهدنبال راههای مطمئنتری برای احراز هویت کاربران هستند. یکی از این مسیرها، اسکن عنبیه چشم است. گرچه این فناوری در سالهای گذشته کمتر مورد توجه مصرفکنندگان قرار گرفته، اما اکنون با موج جدیدی از آزمایشها و سرمایهگذاریها …
پرداخت
فینتک
پرداخت
فینتک
۱۴۰۴/۰۹/۱۱
/ سایت سیتنا
بررسی نشانهها و ابزارهای کشف دیپفیک
دیپ فیک میتواند چهره فردی را بر بدن فرد دیگر قرار دهد یا یک ویدیوی کامل را از صفر خلق کند؛ موضوعی که بهگفته کارشناسان، تهدیدی رو به افزایش برای اعتماد عمومی است، لذا همزمان با پیشرفت ابزارهای تولید چنین ویدیوهایی، روشهای کشف آنها نیز توسعه یافته و مجموعهای از نشانههای بصری و ابزارهای فنی برای …
فناوری
فناوری نوین
فناوری
فناوری نوین
هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۹/۱۰
/ سایت اکوایران
۲۵ میلیون دلار با یک ویدئو ناپدید شد/ فریب شرکتهای بزرگ با دیپ فیک/ کلاهبرداری میلیونی با هوش مصنوعی
اکو ایران: با یک تصویر ساختگی و یک تماس ویدیویی میلیونها دلار در یک شرکت چندملیتی جابهجا شد. آنچه پس از این پیام رخ داد نه یک فریب ساده اینترنتی بود و نه نفوذ متداول رایانهای، بلکه نمونهای پیچیده از توانایی فناوری بود. در تماس ویدئویی که برقرار شد افراد حاضر دقیقا همان چهره و صدا و حرکات مدیران …
فناوری
امنیت سایبری
فناوری
امنیت سایبری
دیپ فیک
۱۴۰۴/۰۹/۱۰
/ سایت نورنیوز
دیپفیک و بحران «جعل واقعیت» در عصر هوش مصنوعی
فناوری دیپفیک — با قدرت جعل ویدیو، صدا و تصویر — امروز به ابزاری تبدیل شده که مرز میان واقعیت و دروغ را محو میکند و پیامدهایی چون آزار، کلاهبرداری، فریب افکار عمومی و تضعیف اعتماد اجتماعی را در پی دارد؛ کارشناسان هشدار میدهند زمان افزایش سواد رسانهای و تدابیر قانونی برای مقابله با این تهدید فرارسیده …
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
جعل واقعیت
۱۴۰۴/۰۹/۰۹
/ سایت شفقنا
دیپفِیک و بحران جعل واقعیت در عصر هوش مصنوعی
شفقنارسانه- هوش مصنوعی از یک سو به یک دستیار مفید و از سویی دیگر به سلاحی خطرناک برای جعل واقعیت تبدیل شده است. دیپفِیک، پدیدهای که مرز بین حقیقت و دروغ را محو میکند، جهان را با چالشهایی بیسابقه روبهرو کرده است. به گزارش شفقنارسانه از ایرنا، وبگاه تِکاِکسپلور در گزارشی آورده است: در عصر فناوری، …
بحران جعل واقعیت
دیپفیک
بحران جعل واقعیت
دیپفیک
هوش مصنوعی
۱۴۰۴/۰۹/۰۶
/ سایت خبرآنلاین
چطور بفهمیم یک ویدیو جعلی است یا واقعی؟
چطور میتوان فهمید یک ویدیو جعلی است یا واقعی و چگونه میتوان بدون گرفتار شدن در دام فریبهای تصویری تصمیم گرفت.
دیپ فیک
هوش مصنوعی
دیپ فیک
هوش مصنوعی
۱۴۰۴/۰۹/۰۶
/ سایت سلامت نیوز
۳۸ درصد زنان شخصا خشونت آنلاین را تجربه کردهاند
یک دختر نوجوان که عکس سادهای از خودش میگذارد، یک روزنامهنگار زن که در خبرگزاریها گزارش انتقادی منتشر میکند، یک سیاستمدار زن که عموما در یک فضای غالبا مردانه کار میکند، یا یک فعال حقوق زنان که درباره موضوعات مرتبط با حوزه تخصصیاش مینویسد، هرکدام ممکن است در عرض چند ساعت با توفانی از تهدید، …
خشونت
خشونت
۱۴۰۴/۰۹/۰۴
/ سایت خبرفوری
لوموند هم شانسی برای رضا پهلوی قائل نیست؟/ بازگشت سلطنت به ایران یک خیال پردازی کودکانه است حتی اگر نظام کنونی نباشد
روزنامۀ لوموند به تازگی در رد ادعای بدنهاجتماعی داشتن رضا پهلوی نوشته بود: «اطرافیانش برای اثبات محبوبیت به تعداد بازدیدها و لایکهای شبکههای اجتماعی استناد میکنند، اما در دوران دیپفیک و رباتهای اینترنتی، این معیارها چندان قابل اتکا نیستند. برخی دیپلماتهای اروپایی، بهویژه در فرانسه، رضا پهلوی …
رضا پهلوی
پادشاهی
رضا پهلوی
پادشاهی
۱۴۰۴/۰۹/۰۴
/ سایت خبرآنلاین
لوموند هم شانسی برای رضا پهلوی قایل نیست؟/ بازگشت سلطنت به ایران یک خیال پردازی کودکانه است حتی اگر نظام کنونی نباشد
روزنامۀ لوموند به تازگی در رد ادعای بدنهاجتماعی داشتن رضا پهلوی نوشته بود: «اطرافیانش برای اثبات محبوبیت به تعداد بازدیدها و لایکهای شبکههای اجتماعی استناد میکنند، اما در دوران دیپفیک و رباتهای اینترنتی، این معیارها چندان قابل اتکا نیستند. برخی دیپلماتهای اروپایی، بهویژه در فرانسه، رضا پهلوی …
سلطنت طلبان
رضا پهلوی
سلطنت طلبان
رضا پهلوی
اپوزیسیون
۱۴۰۴/۰۹/۰۴
/ سایت اقتصادنیوز
گزارش روزنامه لوموند درباره موقعیت سلطنتطلبان در ایران /
اقتصادنیوز: روزنامۀ لوموند به تازگی در رد ادعای بدنهاجتماعی داشتن رضا پهلوی نوشته بود: «اطرافیانش برای اثبات محبوبیت به تعداد بازدیدها و لایکهای شبکههای اجتماعی استناد میکنند، اما در دوران دیپفیک و رباتهای اینترنتی، این معیارها چندان قابل اتکا نیستند. برخی دیپلماتهای اروپایی، بهویژه در فرانسه، …
سلطنت طلبی
سلطنت طلبی
۱۴۰۴/۰۹/۰۳
/ سایت شفقنا
یک تحقیق: یک چهارم مردم بریتانیا «نگران دیپفیکهای جنسی» نیستند
شفقنا- یک افسر ارشد پلیس بریتانیا میگوید: هوش مصنوعی خشونت علیه زنان و دختران را تسریع میکند و شرکتهای فناوری هم در این امر همدست هستند. به گزارش سرویس ترجمه شفقنا؛ گاردین نوشت: بر اساس یک نظرسنجی که به سفارش پلیس بریتانیا انجام شده، از هر چهار نفر، یک نفر فکر میکند که ایجاد و [ ]
جعل عمیق
دیپ فیک
جعل عمیق
دیپ فیک
دیپ فیک جنسی
دیپفیکهای جنسی
۱۴۰۴/۰۹/۰۱
/ سایت فراز
میراثی جعلی برای آیندگان؛ از دیپفیک زندگان تا جعل هویت مردگان!
در ویدئویی تبلیغی از 2Wai که اخیراً منتشر شده فرزند فرد فوتشده با آواتار والد خود ارتباط برقرار میکند.
فرزند
فناوری
فرزند
فناوری
هوش مصنوعی
۱۴۰۴/۰۸/۲۹
/ سایت عصرایران
4 ترفند ساده که با آن میتوان تولیدات هوش مصنوعی را تشخیص داد
یک فیلمساز ایرانی که در بخش تولیدات هوش مصنوعی فعالیت دارد، چهار ترفند ساده را فاش میکند که با گوشی همراهتان میتوانید ویدیوهای جعلی هوش مصنوعی را در کمتر از یک دقیقه شناسایی کنید.
هوش مصنوعی
ترفند
هوش مصنوعی
ترفند
تولیدات
دیپ فیک
۱۴۰۴/۰۸/۲۹
/ خبرگزاری ایسنا
از دیپفیک زندگان تا جعل هویت مردگان!
در ویدئویی تبلیغی از 2Wai که اخیراً منتشر شده فرزند فرد فوتشده با آواتار والد خود ارتباط برقرار میکند.
میراث دیجیتال
دوقلوی دیجیتال
میراث دیجیتال
دوقلوی دیجیتال
جلوگیری ازجعل هویت
۱۴۰۴/۰۸/۲۸
/ سایت تابناک
از دیپفیک زندگان تا جعل هویت مردگان!
تصور کنید ۲۰ سال دیگر فرزندتان با آواتار «شما» حرف بزند، آواتاری که هرگز ندیدهاید، رضایت به ساخت و استفاده از آن ندادهاید و شاید حتی مخالف همه ارزشهایتان هم باشد. این دیگر تخیل نیست؛ همین امروز نیز برای برخی با چند دلار در ماه قابل خرید است.
۱۴۰۴/۰۸/۲۸
/ سایت باشگاه خبرنگاران
از دیپفیک زندگان تا جعل هویت مردگان!
در ویدئویی تبلیغی از 2Wai که اخیراً منتشر شده فرزند فرد فوتشده با آواتار والد خود ارتباط برقرار میکند.
دیپ فیک
هوش مصنوعی
دیپ فیک
هوش مصنوعی
۱۴۰۴/۰۸/۲۸
/ سایت فرارو
چگونه گول دیپفیکها را نخوریم؟
در دورانی که دیپفیکها حتی صدای نزدیکترین آدمها را هم بینقص جعل میکنند، مرز میان حقیقت و فریب هر روز محوتر میشود. اکنون فناوری تازهنفس RAIS آمده تا این پرده فریب را کنار بزند و صداهای جعلی را به دام بیندازد.
دیپ فیک
هوش منصنوعی
دیپ فیک
هوش منصنوعی
۱۴۰۴/۰۸/۲۸
/ سایت خبرآنلاین
امیدوارکنندهترین سپر دفاعی در برابر هوش مصنوعی / چطور گول صداهای جعلی را نخوریم؟
در دنیایی که دیگر نمیتوان به هیچ صدایی اعتماد کرد، پژوهشگران فناوری تازهای معرفی کردهاند که میتواند واقعیت را از صداهای جعلی ساختهشده با هوش مصنوعی تشخیص دهد و حتی با تکامل هوش مصنوعی، همچنان دقیق و قابلاعتماد باقی بماند.
هوش مصنوعی
عامل های هوش مصنوعی
هوش مصنوعی
عامل های هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۸/۲۷
/ سایت شفقنا
«از دیپفیک زندگان تا جعل هویت مردگان»؛ نوشتاری از مریم سلیمی
شفقنا رسانه- مریم سلیمی نوشت: «باید بپذیریم که هوش مصنوعی ممکن است بتواند خاطره را نگه دارد، اما نمیتواند انسان را بازگرداند. میتواند لحن و گفتار را تقلید کند، اما روح و اصالت انسانی را نه. میتواند ارتباط ایجاد کند، اما ارتباط انسانی و حقیقی نیست. تکنولوژی اکنون هم زندگان را جعل میکند و هم [ ]
جعل هویت مردگان
دیپفیک
جعل هویت مردگان
دیپفیک
دیپفیک زندگان
۱۴۰۴/۰۸/۲۷
/ روزنامه هفت صبح
از دیپفیک زندگان تا جعل هویت مردگان!
در ویدئویی تبلیغی از 2Wai که اخیراً منتشر شده فرزند فرد فوتشده با آواتار والد خود ارتباط برقرار میکند ...
هوش مصنوعی
آواتار
هوش مصنوعی
آواتار
۱۴۰۴/۰۸/۲۵
/ سایت تکناک
فناوری RAIS سد جدید در برابر دیپفیک و تهدیدهای جهانی جعل صوتی
با افزایش خطرات دیپفیک برای امنیت دیجیتال، فناوری RAIS بهعنوان ابزار پیشرفتهای برای شناسایی و مقابله با جعل صوتی معرفی شده است.
۱۴۰۴/۰۸/۲۳
/ سایت شارا
اقدام تاریخی دانمارک برای مقابله با دیپفیک؛ حفاظت حقوقی از تصویر و صدا در عصر هوش مصنوعی - شارا
دانمارک با ارائه قانون جدیدی برای مقابله با دیپفیک، حق کپیرایت تصویر و صدا را برای شهروندان به رسمیت میشناسد. این قانون با هدف حذف محتوای دستکاریشده، مقابله با اطلاعات نادرست و حفاظت از حقوق دیجیتال افراد تدوین شده و میتواند آغازگر تحول قانونی در سطح اروپا باشد.
۱۴۰۴/۰۸/۲۳
/ سایت مشرق
هوش مصنوعی چگونه ابزار جنگ رسانهای شده است؟
کارشناس رسانه و عملیات روانی در یادداشتی نوشت:جنگهای مدرن با گلوله آغاز نمیشوند، بلکه با روایت، تصویر و احساس شروع میشوند. دشمنان در میدان رسانهای تلاش میکنند ذهن مخاطب را هدف قراردهند.
جنگ شناختی
نیروی انتظامی
جنگ شناختی
نیروی انتظامی
فناوری دیپفیک
۱۴۰۴/۰۸/۱۹
/ سایت سلام سینما
نقد سریال برنامه صبحگاهی (The Morning Show)، فصل چهارم؛ یک مقایسه اجمالی با فصلهای پیشین
فصل چهارمِ سریال «برنامه صبحگاهی»، همچون فصلهای پیشین تکیهگاهش را بر کشمکشهای اخلاقی در محیط رسانه صبحگاهی گذاشته است؛ با این تفاوت که اینبار وزنِ درام بهسمت بحرانهای فناورانه (مخصوصا هوش مصنوعی و دیپفیک) و پیامدهای ساختاریِ آن برای اعتماد عمومی و صنعت خبر معطوف شده است.
سریال برنامه صبحگاهی
هوش مصنوعی
سریال برنامه صبحگاهی
هوش مصنوعی
۱۴۰۴/۰۸/۱۶
/ سایت اطلاعات آنلاین
لوموند: رضا پهلوی مهره اسرائیلی برای بیثباتی ایران است
لوموند نوشت: هیچ دادهٔ قابل اتکایی دربارهٔ محبوبیت واقعی رضا پهلوی در ایران وجود ندارد. طرفدارانش به تعداد بازدیدها و لایکهای شبکههای اجتماعی استناد میکنند، اما با وجود دیپفیک و رباتهای اینترنتی، این معیاها قابل اعتماد نیستند.
۱۴۰۴/۰۸/۱۶
/ خبرگزاری ایلنا
شگرد جدید کلاهبرداری؛ صدایی که از عزیزانتان میشنوید، واقعی نیست!
کلاهبرداران با استفاده از صدای ساخته شده با هوش مصنوعی برای گرفتن پول از خانواده ها اخاذی می کنند.
هوش مصنوعی
کلاهبرداری
هوش مصنوعی
کلاهبرداری
شگرد
عزیزان
۱۴۰۴/۰۸/۱۶
/ سایت رکنا
فیلم آواز باشکوه محمدرضا گلزار / موزیک ویدیوی جدید با حضور ساره بیات / یه پاپت دارم شاه نداره از احمقی تا نداره ...
موزیک ویدیو جدید محمدرضا گلزار با استفاده از فناوری هوش مصنوعی و تکنیکهای پیشرفته دیپفیک ساخته شده است؛ اثری واقعگرایانه و جنجالی که تماشای آن را نباید از دست داد!
محمدرضا گلزار
محمدرضا گلزار
۱۴۰۴/۰۸/۱۴
/ سایت دلگرم
۶ حقیقت ترسناک درباره هوش مصنوعی که نمی خواهید بدانید!!
در ادامه برای شما از آن روی هوش مصنوعی میگوییم تا با حقیقتهای ترسناک هوش مصنوعی آشنا شوید. کمتر کسی از این واقعیتها سخن میراند!
هوش مصنوعی
خطرات هوش مصنوعی
هوش مصنوعی
خطرات هوش مصنوعی
دیپ فیک
حریم خصوصی
۱۴۰۴/۰۸/۱۴
/ سایت عصرایران
این تصویر من نیست ؛ بزرگترین مشکلی که با هوش مصنوعی خواهیم داشت
یک وضعیت پیچیده است که میتواند افراد بیگناه را کاملا مقصر کند و یا برعکس خطاکاران با تکیه بر اینکه این ساخته هوش مصنوعی است حداقل در پیشگاه افکار عمومی خود را پاک و منزه جلوه دهند!
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
تصویر
۱۴۰۴/۰۸/۱۵
/ سایت عصرایران
این تصویر من نیست ؛ بزرگ ترین مشکلی که با هوش مصنوعی خواهیم داشت
یک وضعیت پیچیده است که میتواند افراد بیگناه را کاملا مقصر کند و یا برعکس خطاکاران با تکیه بر اینکه این ساخته هوش مصنوعی است حداقل در پیشگاه افکار عمومی خود را پاک و منزه جلوه دهند!
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
تصویر
۱۴۰۴/۰۸/۱۴
/ سایت سیتنا
فیلم ساخته شده با هوش مصنوعی را چگونه تشخیص بدهیم؟
گزارشات جدید نشان میدهد کیفیت تصویر، طول و میزان فشردهسازی از مهمترین شاخصهایی هستند که میتوانند به شناسایی ویدیوهای ساختگی کمک کنند و به گفته کارشناسان، تشخیص ویدیوهای جعلی در ماههای آینده دشوارتر خواهد شد و کاربران ناگزیر باید سواد بصری و رسانهای خود را متناسب با سرعت پیشرفت هوش مصنوعی ارتقا …
هوش مصنوعی
شبکه اجتماعی
هوش مصنوعی
شبکه اجتماعی
اینستاگرام
دیپ فیک
۱۴۰۴/۰۸/۱۳
/ روزنامه دنیای اقتصاد
انتخابات نیویورک زیر سایه دیپفیک
امروز چهارم نوامبر، انتخابات شهرداری شهر نیویورک برگزار میشود و در این دوره استفاده از فناوریهای هوش مصنوعی در عرصه سیاست به موضوعی جنجالی تبدیل شده است.
انتخابات
شهرداری
انتخابات
شهرداری
فناوری
نیویورک
۱۴۰۴/۰۸/۱۱
/ سایت فرارو
این ویدئو واقعی به نظر میرسد، اما دیپفِیک است!
یک ویدئوی جعلی با چهره و صدای نیل دِگرس تایسون، جملهای شوکهکننده درباره زمین تخت گفت و نشان داد واقعیت چقدر آسان میتواند دستکاری شود.
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۸/۱۱
/ سایت جعبه
زمین تخت است! / دیگر به چشمان خود اعتماد نکنید
ویدیو در دنیایی که فناوری هوش مصنوعی با سرعت چشمگیری پیش میرود، کلیپی منتشر شده که چهره و صدای معروفی چون «نِیل دِگرس تایسون» را به کار گرفته است. این نمونهای زنده از خطر «دیپفِیک»هاست که نشان میدهد تا چه حد تشخیص واقعیت از جعلیات دشوار میشود.
زمین
هوش مصنوعی
زمین
هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۸/۱۱
/ سایت جعبه
زمین تخت است؛ به چشمان خود اعتماد نکنید! / از علم تا فریب، هشدار ترسناک دیپفیک تایسون
ویدیو در دنیایی که فناوری هوش مصنوعی با سرعت چشمگیری پیش میرود، کلیپی منتشر شده که چهره و صدای معروفی چون «نِیل دِگرس تایسون» را به کار گرفته است. این نمونهای زنده از خطر «دیپفِیک»هاست که نشان میدهد تا چه حد تشخیص واقعیت از جعلیات دشوار میشود.
زمین
هوش مصنوعی
زمین
هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۸/۱۱
/ سایت خبرآنلاین
زمین تخت است؛ به چشمان خود اعتماد نکنید! / از علم تا فریب، هشدار ترسناک دیپفیک تایسون
در دنیایی که فناوری هوش مصنوعی با سرعت چشمگیری پیش میرود، کلیپی منتشر شده که چهره و صدای معروفی چون «نِیل دِگرس تایسون» را به کار گرفته است. این نمونهای زنده از خطر «دیپفِیک»هاست که نشان میدهد تا چه حد تشخیص واقعیت از جعلیات دشوار میشود.
دیپ فیک
هوش مصنوعی
دیپ فیک
هوش مصنوعی
زمین
۱۴۰۴/۰۸/۱۱
/ سایت کلبه سرگرمی
زمین تخت است؛ به چشمان خود اعتماد نکنید! / از علم تا فریب، هشدار ترسناک دیپفیک تایسون - کلبه سرگرمی | Kolbehsargarmi
در دنیایی که فناوری هوش مصنوعی با سرعت چشمگیری پیش میرود، کلیپی منتشر شده که چهره و صدای معروفی چون «نِیل دِگرس تایسون» را به کار گرفته است. این نمونهای
دریافت اخبار بیشتر
۱۴۰۴/۰۸/۱۱ - ۰۹:۳۲:۰۰
خرید فالوور
فالوور اینستاگرام
قیمت طلا
دوشنبه ۴ اسفند ۱۴۰۴ -
23 February 2026
دریافت اخبار بیشتر
خرید فالوور
فالوور اینستاگرام
قیمت طلا