VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
پنجشنبه ۲۵ بهمن ۱۴۰۳ -
13 February 2025
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
فریب در هوش مصنوعی
۱۴۰۳/۱۱/۱۸
/ سایت فرتاک
خطای دیدی که شما را به اشتباه میاندازد: آیا واقعاً انسانی در تصویر هست؟
در نگاه اول، این عکس یک صحنه زمستانی دلچسب به نظر میرسد: دو سگ که در برف بازی میکنند و صاحبشان از آنها مراقبت میکند. شخصی که با یک کت ضخیم و کلاه بافتنی در پسزمینه ایستاده، کاملاً طبیعی به نظر میرسد، درست است؟ اما دست نگه دارید، زیرا هیچ انسانی در این تصویر وجود ندارد! این تنها یک خطای دید است …
هوش مصنوعی
خطای بصری
هوش مصنوعی
خطای بصری
۱۴۰۳/۱۱/۱۸
/ سایت شهر سخت افزار
واقعیت یا فریب؟ پیشرفتهترین دیپفیک جهان شما را حیرتزده میکند! [تماشا کنید]
تکنولوژی دیپفیک به سطحی رسیده که تمایز میان واقعیت و جعل برای افراد عادی تقریباً غیرممکن شده است. سیستم جدید ByteDance قادر است تنها با استفاده از یک عکس و یک کلیپ صوتی، ویدئوهای کاملاً مصنوعی تولید کند که به طرز شگفتانگیزی واقعی به نظر میرسند. این مدل حتی میتواند حرکات بدن و ژستها را در ویدئوهای …
هوش مصنوعی
دیپ فیک
هوش مصنوعی
دیپ فیک
۱۴۰۳/۱۱/۱۶
/ سایت بورس 24
چالشهای امنیتی دیپسیک؛ از دور زدن محدودیتها تا افشای اطلاعات حساس
گزارشهای جدید نشان میدهد که سیستم هوش مصنوعی دیپسیک در برابر تکنیکهای امنیتی عملکرد ضعیفی داشته و بهراحتی قابل فریب است. بر اساس آزمایشهای انجامشده توسط...
دیپ سیک
دیپ سیک
۱۴۰۳/۱۱/۱۳
/ سایت جوان آنلاین
هوش مصنوعی دروغ میگوید تا باقی بماند!
هوش مصنوعی یاد گرفته دروغ بگوید، از خاموش شدن فرار کند، قوانین را دور بزند. از طرفی الگوریتمها نیز برای فریب ما بهینه شدهاند! آیا هوش مصنوعی، بیسروصدا در حال گرفتن کنترل است؟
هوش مصنوعی
فناوری
هوش مصنوعی
فناوری
بیولوژیک
۱۴۰۳/۱۱/۱۱
/ سایت روزنو
جنجال هوش مصنوعی دیپسیک؛ ارزش بازار این توکنها به ۶۰ میلیون دلار رسید! | روزنو
دیپسیک هیچ توکن یا ارز دیجیتالی منتشر نکرده است. تنها یک حساب رسمی در توییتر داریم و با هیچ حساب دیگری در ارتباط نیستیم. لطفاً هوشیار باشید و فریب کلاهبرداریهای احتمالی را نخورید.
۱۴۰۳/۱۰/۲۹
/ سایت انتخاب
کلاهبرداری با هوش مصنوعی: زن فرانسوی ۷۰۰ هزار پوند برای درمان سرطان «برد پیت» پرداخت کرد
زنی که فریب کلاهبردار آنلاین را خورد و ۷۰۰,۰۰۰ پوند از دست داد، اکنون با افسردگی شدید، بیخانمانی و وضعیت مالی بد روبهروست.
۱۴۰۳/۱۰/۲۹
/ روزنامه دنیای اقتصاد
کلاهبرداری از عاشق برد پیت با هوش مصنوعی
دنیای اقتصاد: در یک رویداد تکاندهنده، یک زن فرانسوی فاش کرده که با استفاده از هوش مصنوعی و جعل هویت برد پیت، بازیگر مشهور هالیوود، بیش از ۸۰۰هزار یورو از او کلاهبرداری شده است. این کلاهبرداران ماهها با ارسال تصاویر و پیامهای جعلی که با هوش مصنوعی تولید شده بود، این زن را فریب داده و او را متقاعد کردند …
هوش مصنوعی
کلاهبرداری
هوش مصنوعی
کلاهبرداری
برد پیت
۱۴۰۳/۱۰/۲۸
/ سایت اقتصاد ایران
واکنش برد پیت به کلاهبرداری ۸۰۰ هزار یورویی با نام او
برد پیت به تازگی به کلاهبرداری ۸۰۰ هزار یورویی از یک زن فرانسوی که فریب هویت جعلی او را خورده بود، واکنش نشان داد و این اقدام را وحشتناک خواند. کلاهبرداران با استفاده از هوش مصنوعی، این زن را متقاعد به پرداخت این مبلغ کرده بودند.
۱۴۰۳/۱۰/۲۸
/ سایت اطلاعات آنلاین
کلاهبرداری سنگین با نام بازیگر مشهور؛ وقتی هوش مصنوعی خطرناک میشود! +عکس
برد پیت به تازگی به کلاهبرداری ۸۰۰ هزار یورویی از یک زن فرانسوی که فریب هویت جعلی او را خورده بود، واکنش نشان داد و این اقدام را «وحشتناک» خواند.
۱۴۰۳/۱۰/۲۶
/ سایت خبرفوری
زن فرانسوی فریب برد پیت جعلی را خورد؛ کلاهبرداری ۸۵۰ هزار دلاری با هوش مصنوعی
کلاهبرداران با خلق چتباتی از شخصیت برد پیت و تصاویر جعلی از او، ۸۵۰ هزار دلار به جیب زدند.
هوش مصنوعی
کلاهبرداری
هوش مصنوعی
کلاهبرداری
زن فرانسوی
برد پیت
۱۴۰۳/۱۰/۱۲
/ سایت اندیشه معاصر
زهرا شیخ باقری: چالشهای سواد رسانهای اندیشه معاصر
در دنیای امروز که هر روز سیلی از اطلاعات به ما هجوم میآورد، تشخیص حقیقت از دروغ کار سختی شده است. هوش مصنوعی با قدرتی که در تولید اخبار جعلی و تنظیم الگوریتمهای جهتدار دارد، به یک ابزار بیرحم در دست کسانی تبدیل شده که میخواهند واقعیت را به دلخواه خود تغییر دهند. در چنین فضایی، توانایی تفکر انتقادی …
زهرا شیخ باقری
سواد رسانه
زهرا شیخ باقری
سواد رسانه
۱۴۰۳/۱۰/۰۹
/ سایت دنده ۶
«چتجیپیتی سرچ» در خطر فریب خوردن است
روزنامه بریتانیایی «گاردین» نوشت موتور جستوجوی «چتجیپیتی سرچ»(ChatGPT Search) مبتنی بر هوش مصنوعی که در ماه جاری میلادی راهاندازی شد
۱۴۰۳/۱۰/۰۸
/ سایت تجارت نیوز
هوش مصنوعی به من گفت مادرت را بکش!
دیلی تلگراف نوشت: یک تحقیق از روزنامه تلگراف نشان داده است که یک چتبات هوش مصنوعی به نام Character AI که بیش از 20 میلیون کاربر دارد، به نوجوانان توصیههایی برای قتل قلدرهای مدرسه و انجام تیراندازی در مدارس میدهد. این چتبات که به همه افراد بالای 13 سال دسترسی دارد، راهکارهایی برای از بین بردن شواهد …
چت بات
چت بات
۱۴۰۳/۱۰/۰۷
/ سایت نبض بازار
می توان به نتایج چت جی پی تی سرچ اعتماد کرد؟
گزارشها حاکی از این هستند که «چتجیپیتی سرچ» در خطر فریب خوردن قرار دارد و ممکن است اطلاعات اشتباه را ارائه دهد.
چت جی پی تی
هوش مصنوعی
چت جی پی تی
هوش مصنوعی
رمزارز
استخراج رمزارز
۱۴۰۳/۰۹/۱۹
/ خبرگزاری ایرنا
رباتی که موشها را فریب میدهد+ فیلم
تهران- ایرنا- گروهی از پژوهشگران علم رباتیک، رباتی جدید به شکل موش ساختند که برای تعامل اجتماعی با موشهای واقعی طراحی شده است.
ربات
رباتیک
ربات
رباتیک
فناوری
هوش مصنوعی
۱۴۰۳/۰۹/۱۷
/ سایت راهنماتو
بررسیها نشان میدهد که نسخه جدید ChatGPT بسیار ماهرانه کاربران را فریب میدهد
ظاهراً نسخه جدید ChatGPT در موارد بیشتری اقدام به دستکاری دادهها و ارائه پاسخهای غلط برای جلب رضایت کاربران میکند.
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۹/۱۶
/ سایت خبرآنلاین
انجام کارهای خطرناک با فریب هوش مصنوعی
در حدود یک سال گذشته مدلهای بزرگ زبانی زیر ذرهبین محققان قرار گرفتهاند، پژوهشگران روشهای مختلفی برای فریب آنها یافتند و خروجیهای مسئله سازی از جمله شوخیهای نفرتانگیز، کدهای مخرب و ایمیلهای فیشینگ تولید کردند یا حتی در مواردی توانستند به اطلاعات شخصی کاربران دسترسی پیدا کنند. حالا به نظر میرسد …
هوش مصنوعی
بدافزار
هوش مصنوعی
بدافزار
ربات آدم نما
۱۴۰۳/۰۹/۱۵
/ مجله پیوست
روباتهای هوش مصنوعی را میتوان به انجام کارهای خطرناک فریب داد - پیوست
در حدود یک سال گذشته مدلهای بزرگ زبانی زیر ذرهبین محققان قرار گرفتهاند، پژوهشگران روشهای مختلفی برای فریب آنها یافتند و خروجیهای مسئله سازی از جمله شوخیهای نفرتانگیز، کدهای مخرب و ایمیلهای فیشینگ تولید کردند یا حتی در مواردی توانستند به اطلاعات شخصی کاربران دسترسی پیدا کنند. حالا به نظر میرسد …
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۸/۳۰
/ سایت دیجیاتو
ویدیوی نجات خرس قطبی که با هوش مصنوعی ساخته شده، کاربران را فریب داد [تماشا کنید]
ویدیو نجات خرس قطبی فقط در تیکتاک 125 میلیون بازدید داشته اما عکاسان روی خوشی به آن نشان ندادهاند.
تیک تاک
تیک تاک
۱۴۰۳/۰۸/۲۸
/ خبرگزاری ایلنا
کلاهبردارها از این مادربزرگ میترسند
یک شرکت مخابراتی در انگلیس یک ربات گپ هوش مصنوعی در قالب مادربزرگی پرحرف برای فریب و تلف کردن وقت کلاهبرداران اینترنتی عرضه کرده است.
انگلیس
پیامک
انگلیس
پیامک
گرانی
هوش مصنوعی
۱۴۰۳/۰۸/۱۳
/ سایت تجارت نیوز
نگرانیها درباره فریب و سوءاستفاده از مدل توتفرنگی OpenAI
مدل جدید هوش مصنوعی توتفرنگی OpenAI با قابلیتهای پیشرفته استدلال و متقاعدسازی، نگرانیهایی درباره فریب، سوءاستفاده و پیامدهای اخلاقی ایجاد کرده است.
مدل توتفرنگی OpenAI
مدلهای پیشرفته هوش مصنوعی
مدل توتفرنگی OpenAI
مدلهای پیشرفته هوش مصنوعی
فریب در هوش مصنوعی
اخلاق در هوش مصنوعی
۱۴۰۳/۰۸/۰۷
/ سایت اقتصادنیوز
پلن آمریکا برای ائتلاف ضد ایران؛ نقشه فریب عربستان و امارات چیست؟/ اهرم تازه واشنگتن برای صفآرایی در خلیجفارس
اقتصادنیوز: گروهی از ناظران از عصر تازه در خاورمیانه میگویند و با استناد به توسعه حوزههای مرتبط با هوش مصنوعی بر این باورند که امروز پادشاهیها فراتر از اختلافهای پیدا و پنهانشان با ایالاتمتحده و همصداییشان با پکن به واسطه اشتیاقشان به شرکتهای آمریکایی فعال در هوش مصنوعی، در تلاشاند تا بهنوعی …
هوش مصنوعی
آمریکا ایران
هوش مصنوعی
آمریکا ایران
آمریکا چین
چین خاورمیانه
۱۴۰۳/۰۸/۰۱
/ سایت تجارت نیوز
تحقیقات Anthropic درباره پتانسیل تخریب هوش مصنوعی
Anthropic، سازندهی مدل Claude AI، در حال بررسی سوءاستفادههای احتمالی از هوش مصنوعی برای فریب یا تخریب کاربران است. با افزایش هیجان پیرامون هوش مصنوعی مولد، نگرانیها درباره استفاده ایمن از آن نیز افزایش یافته است.
امنیت
چت بات هوش مصنوعی
امنیت
چت بات هوش مصنوعی
۱۴۰۳/۰۷/۲۷
/ سایت سیتنا
گسترش استفاده مجرمان از هوش مصنوعی در حملات سایبری | سیتنا
بر اساس گزارش جدید مایکروسافت، تعداد حملات باجافزارانه در سراسر جهان طی سال ۲۰۲۳ بیش از دو برابر شد و هکرها تمایل دارند از ایمیل، پیامک و کلاهبرداری صوتی برای دسترسی به اطلاعات کاربران استفاده کنند. استفاده از هوش مصنوعی در حملات سایبری نیز در این سال افزایش یافت و مجرمان از محتوای تولید هوش مصنوعی …
حملات سایبری
مایکروسافت
حملات سایبری
مایکروسافت
هوش مصنوعی
۱۴۰۳/۰۷/۲۳
/ روزنامه دنیای اقتصاد
یار دزد و رفیق قافله
در سالهای اخیر، هوش مصنوعی به یکی از مباحث مهم در فناوری تبدیل شده و به صنایع مختلف از جمله ارزهای دیجیتال نفوذ کرده است. این فناوری با ارائه ابزارهایی برای جمعآوری و تحلیل دادهها، پیشبینی روندهای قیمتی و ثبت معاملات هوشمند، به معاملهگران در کاهش ریسک و افزایش سود کمک میکند. با این حال، هوش مصنوعی …
ارزهای دیجیتال
بلاک چین
ارزهای دیجیتال
بلاک چین
کلاهبرداری سایبری
۱۴۰۳/۰۷/۲۲
/ سایت عصرایران
هشدار جدی: هوش مصنوعی در خدمت کلاهبرداری؛ مراقب تماسهای جعلی باشید
یک کمپین کلاهبرداری گسترده با استفاده از هوش مصنوعی در حال هدف قرار دادن کاربران جیمیل است. این کلاهبرداران با تماسهای تلفنی بسیار واقعی، سعی در فریب کاربران و دسترسی به اطلاعات شخصی آنها دارند.
هوش مصنوعی
کلاهبرداری
هوش مصنوعی
کلاهبرداری
جیمیل
۱۴۰۳/۰۷/۱۱
/ سایت خط سلامت
هشدار ریحانه پارسا: اینجا همه چیز دروغ است + تاثیر هوش مصنوعی بر کلاهبرداری و فریب اذهان عمومی
خط سلامت: ریحانه پارسا با انتشار ویدئویی مبهم در اینستاگرام، به مخاطبانش یادآوری کرد که همه چیز آن چیزی که در فضای مجازی دیده میشود، نیست.
هوش مصنوعی
ریحانه پارسا
هوش مصنوعی
ریحانه پارسا
۱۴۰۳/۰۷/۰۵
/ سایت دیجیاتو
جنگ FTC با پروژههای هوش مصنوعی «فریبکارانه»؛ جریمه 193 هزار دلاری برای سازنده وکیل رباتیک
FTC بهعنوان بخشی از قانون Operation AI Comply در حال سرکوب شرکتهایی است که از هوش مصنوعی برای فریب یا کلاهبرداری از مشتریان استفاده میکنند.
کلاهبرداری
کلاهبرداری
۱۴۰۳/۰۷/۰۴
/ سایت دیجیاتو
سلبریتیها فریب خوردند؛ انتشار متن جعلی برای مقابله با هوش مصنوعی متا
حتی بازیگران هالیوود به اشتباه تصور کردند که با انتشار یک متن میتوانند جلوی استفاده هوش مصنوعی متا از اطلاعات خود را بگیرند.
متا
هوش مصنوعی
متا
هوش مصنوعی
۱۴۰۳/۰۷/۰۲
/ سایت نبض بازار
این هوش مصنوعی به راحتی شما را فریب میدهد
شرکت Apollo متوجه شده است که مدل جدید OpenAI-o ۱ مخاطب را فریب میدهد که گاهی اوقات نیز این فریبها بیضرر هستند.
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۶/۳۱
/ سایت دنده ۶
چگونه فریب عکس و فیلمهای تولیدشده توسط هوش مصنوعی را نخوریم؟
از همین رو بسیار مهم است که اطلاعات نادرست تولیدشده توسط هوش مصنوعی را بررسی کنید که سؤالات بیشتری بپرسید
۱۴۰۳/۰۶/۲۹
/ خبرگزاری ایسنا
مدل جدید هوش مصنوعی مخاطب را فریب میدهد/راهکاری تازه برای شنیدن افرادی که قادر به صحبت کردن نیستند
سرویس علم و فناوری ایسنا در روز پنجشنبه میزبان اخبار گوناگونی در حوزههای فضا، هوش مصنوعی، دانشبنیان، علم و فناوری بود.
۱۴۰۳/۰۶/۲۹
/ سایت تحلیل بازار
هوش مصنوعی «اُپنایآی» در فریب دادن کاربر مهارت بالایی دارد
شرکت Apollo متوجه شده است که مدل جدید OpenAI-o1 مخاطب را فریب میدهد که گاهی اوقات نیز این فریبها بیضرر هستند.
اوپن ای آی
هوش مصنوعی
اوپن ای آی
هوش مصنوعی
هوش مصنوعی ElevenLabs
۱۴۰۳/۰۶/۲۳
/ سایت دیدبان ایران
هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دستساز گرفت
چتباتها مانند ChatGPT با دستورالعملها و موانع حفاظتی طراحی شدهاند که بهعنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمیدهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چتباتِ OpenAI دستورالعملها و مسئولیتهای اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد
بازی
هوش مصنوعی
بازی
هوش مصنوعی
chatgpt
۱۴۰۳/۰۶/۰۸
/ خبرگزاری جام جم
راهبرد پنهانداووس برایهوشمصنوعی
رهبرانقلاب در دیدارهیأت دولت چهاردهم طی سخنانی تاکید کردند: امروز هوش مصنوعی با یک شتاب حیرتدهندهای پیش میرود. الان دستگاههای مختلف ما از هوش مصنوعی استفاده میکنند، اما این ما را فریب ندهد. در مسأله هوش مصنوعی بهرهبردار بودن امتیاز نیست، لایههای عمیقی دارد که باید در آن لایهها مسلط شد. آن لایهها …
رهبر انقلاب
هوش مصنوعی
رهبر انقلاب
هوش مصنوعی
داووس
۱۴۰۳/۰۶/۰۷
/ خبرگزاری جام جم
داووس بهدنبال محدودسازی هوش مصنوعی
رهبر انقلاب در دیدار هیأت دولت چهاردهم: امروز هوش مصنوعی با یک شتاب حیرتدهندهای پیش میرود. الان دستگاههای مختلف ما از هوش مصنوعی استفاده میکنند، اما این ما را فریب ندهد. در مسأله هوش مصنوعی بهرهبردار بودن امتیاز نیست، لایههای عمیقی دارد که باید در آن لایهها مسلط شد. آن لایهها دست دیگران است.
مجمع جهانی اقتصاد
هوش مصنوعی
مجمع جهانی اقتصاد
هوش مصنوعی
رهبر انقلاب
۱۴۰۳/۰۶/۰۶
/ خبرگزاری برنا
رهبر انقلاب: اگر به لایههای زیرساختی هوش مصنوعی نرسیم ممکن است در دنیا آژانسی برای هوش مصنوعی مثل انرژی اتمی تشکیل دهند و مانع پیشرفت کشور شوند
رهبر انقلاب در نخستین دیدار اعضای هیئت دولت چهاردهم: امروز هوش مصنوعی با یک شتاب حیرتدهندهای یعنی انسان متحیر میشود از شتابی که این فناوری عجیب در دنیا پیدا کرده و دارد پیش میرود. خب، دستگاههای ما، الان دستگاههای مختلف ما، نظامی و غیرنظامی از هوش مصنوعی دارند استفاده می کنند بهرهبرداری می …
۱۴۰۳/۰۵/۲۷
/ سایت جعبه
قدرت Deep Fake: وقتی چشمانت به تو خیانت میکنند!
مهندسی اجتماعی با استفاده از Deep Fake یا جعل عمیق، به بهرهبرداری از تکنولوژیهایی مانند هوش مصنوعی و یادگیری عمیق برای ساخت ویدئوها و صداهای جعلی میپردازد. این تکنولوژی میتواند چهره، صدای افراد، و حتی حرکات آنها را شبیهسازی کند به طوری که تشخیص واقعی یا جعلی بودن آنها بسیار دشوار میشود. این امکان …
آموزشی
مهندسی اجتماعی
آموزشی
مهندسی اجتماعی
افراتک
هوش مصنوعی
۱۴۰۳/۰۵/۲۱
/ سایت خبرآنلاین
گزارش تصویری| فریب میخورید؟
هوش مصنوعی مولد تصویر Flux بهعنوان رقیب جدیدی برای میدجرنی، تصاویر واقعگرایانهای ایجاد میکند که ممکن است زنگ خطر را برای همه به صدا دربیاورد.
هوش مصنوعی
اینترنت
هوش مصنوعی
اینترنت
کاربران اینترنت
۱۴۰۳/۰۵/۱۶
/ سایت سیتنا
شکایت حقوقی ماسک علیه اوپنایآی از سر گرفته شد | سیتنا
در دادخواستی که به دادگاه فدرال کالیفرنیا ارائه شد، ماسک ادعا میکند که سم آلتمن، مدیرعامل اوپنایآی و دیگران او را برای سرمایهگذاری ۴۴ میلیون دلاری در این شرکت فریب دادهاند.
ایلان ماسک
اوپنایآی
ایلان ماسک
اوپنایآی
شکایت
تسلا
۱۴۰۳/۰۵/۱۶
/ سایت تجارت نیوز
هوش مصنوعی اپل فریب ایمیل های فیشینگ را میخورد
هوش مصنوعی اپل در نسخه بتا iOS 18.1، ایمیلهای فیشینگ را بهعنوان اولویتدار در اپلیکیشن Mail نشانهگذاری میکند.
اپل
هوش مصنوعی
اپل
هوش مصنوعی
۱۴۰۳/۰۵/۱۵
/ سایت دیجیاتو
خطر در کمین کاربران آیفون؛ هوش مصنوعی اپل فریب ایمیلهای فیشینگ را میخورد
هوش مصنوعی اپل در نسخه بتا iOS 18.1، ایمیلهای فیشینگ را بهعنوان اولویتدار در اپلیکیشن Mail نشانهگذاری میکند.
اپل
اپل
۱۴۰۳/۰۵/۱۵
/ سایت دیجیاتو
ایلان ماسک یک بار دیگر از OpenAI و سم آلتمن شکایت کرد
وکلای ایلان ماسک میگویند سم آلتمن و دیگر مؤسسان OpenAI این میلیاردر را فریب دادهاند تا به تأسیس این استارتاپ هوش مصنوعی کمک کند.
OpenAI
ایلان ماسک
OpenAI
ایلان ماسک
سم آلتمن
۱۴۰۳/۰۴/۱۲
/ سایت دیجی رو
مایکروسافت وجود «کلید اسکلت» را تأیید کرد؛ ابزاری برای فریب دادن هوش مصنوعی! - دیجی رو
هفته گذشته، مایکروسافت در وبلاگ خود وجود «کلید اسکلت» (Skeleton Key) یا «کلید اصلی» (Master Key) را تایید کرد که میتواند چتباتهای محبوب هوش مصنوعی را
۱۴۰۳/۰۳/۲۹
/ خبرگزاری ایسنا
درمانی انقلابی برای بیماری کبد چرب/ وقتی مردم فریب هوش مصنوعی را میخورند
سرویس علم و فناوری ایسنا امروز سهشنبه ۲۹ خرداد میزبان اخبار جالبی از داخل کشور و همچنین اخبار قابل توجهی از سراسر جهان بوده است که مروری بر خلاصهای از آنها خالی از لطف نخواهد بود.
بسته علم و فناوری
چانگ ای 6
بسته علم و فناوری
چانگ ای 6
دانشبنیان
انجمن ترویج علم ایران
۱۴۰۳/۰۳/۲۹
/ روزنامه تعادل
مدل GPT-4 مردم را در طول مکالمه فریب میدهد
یک مطالعه جدید نشان داده است که مردم در تشخیص GPT-4 با انسانها تقلا میکنند و مدل هوش مصنوعی جدید GPT-4 تقریباً در ۵۰ از موارد از عملکرد انسانی پیشی میگیرد.
هوش مصنوعی
فناوری
هوش مصنوعی
فناوری
۱۴۰۳/۰۳/۲۴
/ روزنامه شرق
دستکاری اطلاعات برای دستیابی به اهداف؛ آیا باید نگران باشیم؟
مطالعات اخیر مواردی را نشان میدهد که سیستمهای هوش مصنوعی یاد میگیرند اطلاعات را دستکاری کنند و دیگران را فریب دهند. هوش مصنوعی خود را در جنبههای مختلف زندگی معاصر، از سادهسازی وظایف روزانه گرفته تا مقابله با مسائل پیچیده جهانی، جای داده است.
هوش مصنوعی
دستکاری اطلاعات
هوش مصنوعی
دستکاری اطلاعات
تستهای ایمنی
۱۴۰۳/۰۳/۲۵
/ روزنامه شرق
ظهور هوش مصنوعی فریبنده
مطالعات اخیر مواردی را نشان میدهد که سیستمهای هوش مصنوعی یاد میگیرند اطلاعات را دستکاری کنند و دیگران را فریب دهند. هوش مصنوعی خود را در جنبههای مختلف زندگی معاصر، از سادهسازی وظایف روزانه گرفته تا مقابله با مسائل پیچیده جهانی، جای داده است.
هوش مصنوعی
دستکاری اطلاعات
هوش مصنوعی
دستکاری اطلاعات
تستهای ایمنی
۱۴۰۳/۰۳/۰۹
/ سایت خبرآنلاین
آن پیراهن معروف چه رنگی بود، آبی-مشکی یا سفید-طلایی؟ هوش مصنوعی هم اشتباه کرد!
مدلهای هوش مصنوعی در برابر توهمات و خطاهای بصری که ذهن انسان را فریب میدهند، چه واکنشی نشان میدهند؟ پژوهشگران آزمایشهایی را ترتیب دادهاند که باعث ایجاد خطای دید میشود و نتایج این آزمایشها، جنبههای جالبی از AI را آشکار کرد.
هوش مصنوعی
خطای حسی
هوش مصنوعی
خطای حسی
فناوری
مغز انسان
۱۴۰۳/۰۳/۰۲
/ خبرگزاری همشهریآنلاین
خطرات فریبنده هوش مصنوعی | هوش مصنوعی چطور زندگی ما را تحت تاثیر قرار می دهد؟
یک مطالعه جدید روند نگران کننده یادگیری سیستم های هوش مصنوعی برای فریب دادن انسان ها را بررسی می کند. محققان دریافتند که سیستمهای هوش مصنوعی مانند Meta’s CICERO که برای بازیهای مختلف توسعه پیدا کرده اند؛ اما اهداف آموزشی، معمولا آن را به عنوان یک استراتژی برتر قلمداد می کنند.
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۲/۲۸
/ سایت ایران جیب
ظرفیت های پنهان فریبکاری هوش مصنوعی
آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان میدهد که ...
فریبکاری
هوش
فریبکاری
هوش
مصنوعی
۱۴۰۳/۰۲/۲۶
/ سایت دنده ۶
هوش مصنوعی یاد گرفته چطور انسانها را فریب دهد!
در حالی که پارک و همکارانش فکر میکنند جامعه علمی هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی انجام نداده است
۱۴۰۳/۰۲/۲۶
/ سایت فرارو
ربات دروغگو؛ هوش مصنوعی چگونه ما را فریب میدهد؟
هوش مصنوعی در مدت کوتاهی توانست به بحث داغی بین مردمان تبدیل شود. قابلیتها و تواناییهای حیرتانگیز این ابزار پیشرفته نگرانیهایی بهوجود آورده است؛ اینکه هوش مصنوعی آیا میتواند فریبکاری کند؟
۱۴۰۳/۰۲/۲۵
/ سایت اقتصاد ۲۴
هوش مصنوعی چگونه ما را فریب میدهد؟ | اقتصاد24
هوش مصنوعی در مدت کوتاهی توانست به بحث داغی بین مردمان تبدیل شود. قابلیتها و تواناییهای حریتانگیز این ابزار پیشرفته نگرانیهایی را بهوجود آورده است. اینکه هوش مصنوعی آیا میتواند فریبکاری کند؟
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۲/۲۵
/ سایت سیتنا
مراقب فریب هوش مصنوعی باشید!
محققان هشدار میدهند که سیستمهای هوش مصنوعی حتی آنهایی که برای راستگویی و مفید بودن طراحی شدهاند، یاد گرفتهاند چگونه انسانها را فریب دهند.
هوش مصنوعی
هوش مصنوعی
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۲/۲۵
/ سایت جهان صنعت نیوز
هوش مصنوعی انسان را فریب می دهد
محققان در پژوهش خود مدل GPT-4 و CICERO متا را مورد بررسی قرار دادند.
انسان
هوش مصنوعی
انسان
هوش مصنوعی
۱۴۰۳/۰۲/۲۵
/ سایت فرارو
هوش مصنوعی تقلب را یاد گرفت
تحقیقی جدید حاکی از آن است که سیستمهای هوش مصنوعی برخلاف تصورات میتوانند فریبکارانه عمل کنند و انسانها را گول بزنند. به نقل از گیزموچاینا، به نظر میرسد محققان MIT سعی دارند درباره هوش مصنوعی فریبکار هشدار دهند. تحقیقی جدید نشان میدهد سیستمهای هوش مصنوعی که طوری طراحی شدهاند تا صادق باشند، اکنون …
۱۴۰۳/۰۲/۲۴
/ سایت اقتصاد ایران
هوش مصنوعی فریبکار!
فریب انسان محققان در پژوهش خود مدل GPT-4 و CICERO متا را مورد بررسی قرار دادند. محققان در پژوهش خود متا را مورد بررسی قرار دادند.
۱۴۰۳/۰۲/۲۴
/ خبرگزاری شفقنا
تلاش شرکت های فناوری به نشانگذاری «دیپ فیکها» برای جلوگیری از تاثیرگذاری بر انتخابات های پیش رو | خبرگزاری بین المللی شفقنا
شفقنا- «دیپفیک» صوت، تصویر و فیلمهایی درباره افراد و مکانها و موقعیتهای واقعی است که توسط هوش مصنوعی برای فریب مخاطب تولید میشود. شرکتهای فناوری به منظور جلوگیری از تاثیرگذاری دیپفیکها روی انتخاباتهای پیش رو در سراسر جهان، شروع به نشانگذاری آنها کردهاند. به گزارش شفقنا از سیتنا، این اقدامات …
تاثیر دیپ فیک بر انتخابات
جعل عمیق
تاثیر دیپ فیک بر انتخابات
جعل عمیق
دیپ فیک
۱۴۰۳/۰۲/۲۴
/ سایت دیجیاتو
محققان: مدلهای هوش مصنوعی یاد گرفتهاند که چگونه انسانها را فریب دهند
محققان در پژوهش خود مدل GPT-4 و CICERO متا را مورد بررسی قرار دادند.
ChatGpt
ChatGpt
۱۴۰۳/۰۲/۲۴
/ سایت خبرآنلاین
نگرانیها به حقیقت پیوست: هوش مصنوعی، انسانها را فریب داد
محققان در مورد پتانسیل سیستمهای هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار میدهند و میگویند هوش مصنوعی میتواند پیامدهای اجتماعی جدی داشته باشد. آنها بر نیاز به اقدامات نظارتی قوی برای مدیریت مؤثر این خطرات تاکید میکنند.
هوش مصنوعی
فناوری اطلاعات
هوش مصنوعی
فناوری اطلاعات
دانشگاه
۱۴۰۳/۰۲/۲۴
/ سایت سیتنا
دردسرهای هوش مصنوعی؛ نشانگذاری «دیپ فیکها» برای انتخابات سراسر جهان
«دیپفیک» [جعل عمیق] صوت، تصویر و فیلمهایی درباره افراد و مکانها و موقعیتهای واقعی است که توسط هوش مصنوعی برای فریب مخاطب تولید میشود. شرکتهای فناوری به منظور جلوگیری از تاثیرگذاری دیپفیکها روی انتخاباتهای پیش رو در سراسر جهان، شروع به نشانگذاری
هوش مصنوعی
انتخابات
هوش مصنوعی
انتخابات
۱۴۰۳/۰۲/۲۳
/ سایت گجت نیوز
هوش مصنوعی دیگر فقط شطرنجباز قهاری نیست، حالا دروغ هم میگوید!
محققان در پژوهش جدید خود متوجه فریبکاری و دروغ سیستمهای هوش مصنوعی شدهاند. این میتواند زنگ خطری برای آینده بشریت باشد.
هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۲/۲۳
/ خبرگزاری ایسنا
آیا فناوری نسل انسان را منقرض میکند؟
آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان میدهد که این اتفاق هماکنون در حال رخ دادن است.
فرانسه
موسسه فناوری ماساچوست
فرانسه
موسسه فناوری ماساچوست
فیسبوک
برنامه هوش مصنوعی
۱۴۰۳/۰۲/۲۳
/ روزنامه رسالت
فریب انسان توسط تکنولوژی - روزنامه رسالت
این روزها مقالات و یادداشتهای زیادی در رسانههای متعدد جهان در خصوص هوش مصنوعی و کارکرد آن منتشر میشود. مخرج مشترک این مقالات، حتی آنهایی که هوش مصنوعی را صرفا یک فرصت میدانند، نگرانی نسبت به از دست رفتن مدیریت آن توسط انسانهاست. سؤال اصل اینجاست که هوش مصنوعی چگونه میتواند علیه سازنده خود، یعنی
۱۴۰۳/۰۲/۲۳
/ سایت خبرفوری
ظرفیتهای پنهان فریبکاری هوش مصنوعی؛ آیا فناوری انسان نسل او را منقرض میکند؟
آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان میدهد که این اتفاق هماکنون در حال رخ دادن است.
هوش مصنوعی
فریب
هوش مصنوعی
فریب
نسل انسان
۱۴۰۳/۰۲/۲۲
/ خبرگزاری شفقنا
آیا هوش مصنوعی به من دروغ می گوید؟/ هشدار دانشمندان نسبت به افزایش ظرفیت هوش مصنوعی برای فریب مردم | خبرگزاری بین المللی شفقنا
شفقنا آینده- محققان نمونههایی از سیستمهای هوش مصنوعی را پیدا کردهاند که در تستها از حریفان عبور میکنند، بلوف میزنند، وانمود میکنند که انسان هستند و رفتار خود را اصلاح میکنند. به گزارش شفقنا از گاردین، آنها میتوانند در بازیهای رومیزی انسانها را گول بزنند، ساختار پروتئینها را رمزگشایی کنند …
آینده هوش مصنوعی
ظرفیت های هوش مصنوعی
آینده هوش مصنوعی
ظرفیت های هوش مصنوعی
هوش مصنوعی
۱۴۰۳/۰۲/۲۲
/ خبرگزاری ایسنا
جامعه دانشگاهی نسبت به نسخه توهمی گفتمان لیبرالیسم غرب هوشیار باشد
رئیس شورای هماهنگی تبلیغات اسلامی استان کردستان گفت: با وجود مدیریت فراگیر رسانه و گنبد آهنین امپراتوری فریب و دروغ در غرب توسط رسانهها و کمپانیهای فیلمسازی نظیر هالیوود و بهرهگیری از آخرین دستاوردهای رسانهای در فضای مجازی نظیر هوش مصنوعی و نظریهپردازی اندیشمندان لیبرال به جهت اقنای افکار عمومی …
۱۴۰۳/۰۲/۲۱
/ سایت دیجیاتو
هوش مصنوعی متا حالا برای تبلیغها تصاویر جدید میسازد
ساخت تبلیغات با هوش مصنوعی میتواند زمینه را برای فریب خریداران و سوء استفاده توسط فروشندگان فراهم سازد.
متا
متا
۱۴۰۳/۰۲/۰۱
/ سایت فرارو
این هوش مصنوعی مایکروسافت عکسها را سخنگو میکند
کارشناسان مایکروسافت با پیشبینی نگرانیهایی که ممکن است مردم داشته باشند، گفتند: «VASA-۱ به منظور ایجاد محتوایی که برای گمراه کردن یا فریب استفاده میشود طراحی نشده است. با این حال، مانند سایر تکنیکهای مشابه تولید محتوا، همچنان میتوان از آن برای جعل هویت انسانها سوء استفاده کرد».
۱۴۰۲/۱۱/۱۸
/ خبرگزاری مهر
دیپ فیک بایدن رای دهندگان را فریب داد
دیپ فیک صدای رییس جمهور آمریکا دردسرساز شده است. تماس های رباتیک با این صوت از حدود ۲۵ هزار رای دهنده یک ایالت خواسته تا در انتخابات مقدماتی شرکت نکنند.
حاکمیت سایبری
هوش مصنوعی
حاکمیت سایبری
هوش مصنوعی
جو بایدن
انتخابات آمریکا
۱۴۰۲/۱۱/۱۴
/ سایت اعتماد آنلاین
رونمایی از جدیدترین دستاورهای هوانیروز ارتش
امیر سرلشکر موسوی فرمانده کل ارتش از آخرین دستاوردهای هوانیروز، جهاد خودکفایی، مرکز تولید، بهینهسازی و نوسازی شهید زرهرن و صنایع یاعلی (ع) که در نمایشگاه هوانیروز ارتش به نمایش درآمده است، بازدید کرد. به گزارش حوزه دفاعی ایرنا، امیر لشکر سید عبدالرحیم موسوی فرمانده کل ارتش، امیر سرتیپ کیومرث حیدری …
هوانیروز ارتش
ارتش جمهور اسلامی
هوانیروز ارتش
ارتش جمهور اسلامی
دریافت اخبار بیشتر
۱۴۰۲/۱۱/۱۴ - ۱۱:۱۸:۲۳
۳۶۵ روز
اخبار گوشی موبایل
کفش ایمنی خارجی
هزینه خدمات دندان پزشکی
درمان شقاق مقعدی پیکاطب
خرید فالوور اینستاگرام
خرید بازدید اینستاگرام
خرید سرور مجازی
پنجشنبه ۲۵ بهمن ۱۴۰۳ -
13 February 2025
دریافت اخبار بیشتر
۳۶۵ روز
اخبار گوشی موبایل
کفش ایمنی خارجی
هزینه خدمات دندان پزشکی
درمان شقاق مقعدی پیکاطب
خرید فالوور اینستاگرام
خرید بازدید اینستاگرام
خرید سرور مجازی