VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
دوشنبه ۲۵ اسفند ۱۴۰۴ -
16 March 2026
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
صداهای دیپفیک
۱۴۰۴/۱۲/۰۵
/ سایت خبرآنلاین
هوش مصنوعی با موسیقی چه میکند؟
این روزها با ظهور موسیقی دیپفیک، صداهای شبیهسازیشده هنرمندان مشهور، از ایران تا جهان، در شبکههای اجتماعی و پلتفرمهای استریم پخش میشوند. هرچند برخی آثار خلاقانه و جذاب هستند، اما نبود قوانین مشخص، مسائل اخلاقی، حقوقی و مالی و حتی خطر آسیب روانی به هنرمندان، این پدیده را به یکی از چالشبرانگیزترین …
هوش مصنوعی
موسیقی
هوش مصنوعی
موسیقی
کپی رایت
۱۴۰۴/۱۲/۰۵
/ روزنامه مردم سالاری
هوش مصنوعی با موسیقی چه میکند؟ - مردم سالاری آنلاین
این روزها با ظهور موسیقی دیپفیک، صداهای شبیهسازیشده هنرمندان مشهور، از ایران تا جهان، در شبکههای اجتماعی و پلتفرمهای استریم پخش میشوند. هرچند برخی آثار خلاقانه و جذاب هستند، اما نبود قوانین مشخص، مسائل اخلاقی، حقوقی و مالی و حتی خطر آسیب روانی به هنرمندان، این پدیده را به یکی از چالشبرانگیزترین …
۱۴۰۴/۰۹/۰۶
/ سایت سلامت نیوز
۳۸ درصد زنان شخصا خشونت آنلاین را تجربه کردهاند
یک دختر نوجوان که عکس سادهای از خودش میگذارد، یک روزنامهنگار زن که در خبرگزاریها گزارش انتقادی منتشر میکند، یک سیاستمدار زن که عموما در یک فضای غالبا مردانه کار میکند، یا یک فعال حقوق زنان که درباره موضوعات مرتبط با حوزه تخصصیاش مینویسد، هرکدام ممکن است در عرض چند ساعت با توفانی از تهدید، …
خشونت
خشونت
۱۴۰۴/۰۸/۲۸
/ سایت فرارو
چگونه گول دیپفیکها را نخوریم؟
در دورانی که دیپفیکها حتی صدای نزدیکترین آدمها را هم بینقص جعل میکنند، مرز میان حقیقت و فریب هر روز محوتر میشود. اکنون فناوری تازهنفس RAIS آمده تا این پرده فریب را کنار بزند و صداهای جعلی را به دام بیندازد.
دیپ فیک
هوش منصنوعی
دیپ فیک
هوش منصنوعی
۱۴۰۴/۰۸/۲۸
/ سایت خبرآنلاین
امیدوارکنندهترین سپر دفاعی در برابر هوش مصنوعی / چطور گول صداهای جعلی را نخوریم؟
در دنیایی که دیگر نمیتوان به هیچ صدایی اعتماد کرد، پژوهشگران فناوری تازهای معرفی کردهاند که میتواند واقعیت را از صداهای جعلی ساختهشده با هوش مصنوعی تشخیص دهد و حتی با تکامل هوش مصنوعی، همچنان دقیق و قابلاعتماد باقی بماند.
هوش مصنوعی
عامل های هوش مصنوعی
هوش مصنوعی
عامل های هوش مصنوعی
دیپ فیک
۱۴۰۴/۰۸/۱۰
/ سایت اکوایران
چگونه هوش مصنوعی با تقلید صدا، کلاهبرداری میکند؟
پیشرفتهای اخیر در تولید صداهای دیپفیک (محتوای جعلی بسیار واقعی) با هوش مصنوعی میتواند به افزایش کلاهبرداریهای تلفنی منجر شود.
فناوری
هوش مصنوعی
فناوری
هوش مصنوعی
دیپ فیک
ai
۱۴۰۴/۰۷/۱۴
/ سایت باشگاه خبرنگاران
گول صداهای آشنا را نخورید/هوش مصنوعی با تقلید صدا حسابتان را خالی میکند!
محققان نشان دادند وقتی مردم به صدای انسان واقعی در کنار نسخههای تولید شده توسط هوش مصنوعی از همان صداها گوش میدهند، نمیتوانند تشخیص دهند که کدام صدا واقعی و کدام ساختگی است.
هوش مصنوعی الکسا
دیپ فیک
هوش مصنوعی الکسا
دیپ فیک
۱۴۰۴/۰۷/۱۴
/ روزنامه دنیای اقتصاد
چطور صدا به سلاحی ترسناک تبدیل میشود؟ / حتی به گوشهای خود اعتماد نکنید
اگر فکر میکنید که میتوانید تفاوت بین صدای انسان و دیپفیک را تشخیص دهید، سخت در اشتباه هستید.
هوش مصنوعی
صدا
هوش مصنوعی
صدا
صداهای دیپفیک
دریافت اخبار بیشتر
۱۴۰۴/۰۷/۱۴ - ۰۰:۴۵:۲۵
خرید فالوور
فالوور اینستاگرام
قیمت طلا
دوشنبه ۲۵ اسفند ۱۴۰۴ -
16 March 2026
دریافت اخبار بیشتر
خرید فالوور
فالوور اینستاگرام
قیمت طلا