VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
شنبه ۱۵ فروردین ۱۴۰۵ -
4 April 2026
VIST
A
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
آگهی
اخبار مهم
سیاسی
اقتصادی
ورزشی
اجتماعی
فرهنگی
بینالمللی
سلامت
علمی
آگهی
فناوری
عکس
فیلم
استانها
گرافیک
وبگردی
استخدام
اینفوگرافیک
سبک زندگی
VIST
A
مارال فرجاد
نرگس آبیار
پرویز پرستویی
خطرات هوش مصنوعی
۱۴۰۵/۰۱/۰۵
/ سایت فرارو
هوش مصنوعی و پایان تنهایی؟ / عصرِ جدید حمایت عاطفی
گسترش سریع و کمنظارت هوش مصنوعیِ دارای تواناییهای عاطفی، در حالی که میلیونها نفر برای حمایت روانی به آن تکیه میکنند، نگرانیها درباره وابستگی، سوءاستفاده تجاری و نبود مقررات را افزایش داده است.
هوش مصنوعی
خطرات هوش مصنوعی
هوش مصنوعی
خطرات هوش مصنوعی
۱۴۰۴/۱۲/۰۸
/ سایت باشگاه خبرنگاران
تنظیم گری در دنیای هوش مصنوعی + فیلم
۶۱ نهاد بین المللی درباره خطرات استفاده بی ضابطه از هوش مصنوعی هشدار دادند.
هوش مصنوعی
حریم خصوصی
هوش مصنوعی
حریم خصوصی
هوش مصنوعی
حریم خصوصی
۱۴۰۴/۱۲/۰۶
/ سایت روزنامه آگاه
بازگشت به ادبیات برای مهار هیولای هوش مصنوعی
یک مدرسه بازرگانی در فرانسه برای آموزش مسئولیتپذیری در عصر فناوری، دانشجویان را به خواندن آثار کلاسیک ادبی واداشته است؛ جایی که هیولای «فرانکنشتاین» به نمونهای واقعی برای فهم خطرات و فرصتهای هوش مصنوعی تبدیل شده است.
هوش مصنوعی
فرانسه
هوش مصنوعی
فرانسه
۱۴۰۴/۱۲/۰۳
/ سایت خبرآنلاین
استعفای دانشمند ارشد Anthropic با پیامی مرموز
«مرینانک شارما»، مدیر تیم تحقیقات امنیتی در شرکت Anthropic (رقیب اصلی سازنده ChatGPT)، با انتشار نامهای سرگشاده از سمت خود کنارهگیری کرد. شارما که وظیفهاش ایجاد «محافظ» برای جلوگیری از خطرات هوش مصنوعی بود، با لحنی هشدارآمیز نوشت: «دنیا در وضعیت مخاطرهآمیزی قرار دارد؛ از بحرانهای زیستی گرفته تا …
هوش مصنوعی
عامل های هوش مصنوعی
هوش مصنوعی
عامل های هوش مصنوعی
بیکاری
۱۴۰۴/۱۲/۰۱
/ سایت گیمولوژی
اکثر ایجنتهای هوش مصنوعی امن نیستند
مطالعه جدید محققان دانشگاه MIT و چند نهاد علمی معتبر دیگر نشان میدهد که ایجنتهای هوش مصنوعی که میتوانند بهصورت خودکار کارها را انجام دهند، یک کابوس امنیتی هستند. این سیستمها نهتنها درباره خطرات و تستهای ایمنی خود شفاف نیستند، بلکه بسیاری از آنها حتی دکمهای برای توقف اضطراری ندارند. محققان دانشگاههای …
۱۴۰۴/۱۱/۳۰
/ سایت شفقنا
مدیرعامل اوپنایآی: جهان به آژانس بینالمللی هوش مصنوعی نیاز دارد
شفقنا سم آلتمن، مدیرعامل اوپنایآی، در اجلاس «تأثیر هوش مصنوعی ۲۰۲۶» در دهلی نو، خواستار تشکیل فوری یک نهاد نظارتی جهانی مشابه آژانس بینالمللی انرژی اتمی (IAEA) شد تا از خطرات خروج این فناوری از کنترل جلوگیری کند. به گزارش سرویس ترجمه شفقنا، آلتمن در این سخنرانی هشدار داد که پیشرفت سریع هوش مصنوعی، …
اوپنایآی
هوش مصنوعی
اوپنایآی
هوش مصنوعی
۱۴۰۴/۱۱/۳۰
/ سایت شفقنا
رونمایی از ابزار رایگان بریتانیا برای مهار خطرات هوش مصنوعی
شفقنا تیمی متشکل از ۳۰ محقق برجسته از دانشگاههای گلاسگو و شفیلد، ابزاری متنباز و رایگان را با نام PHAWM روانه بازار کردهاند که به افراد غیرمتخصص اجازه میدهد امنیت و اخلاقمداری برنامههای هوش مصنوعی را به چالش بکشند. به گزارش سرویس ترجمه شفقنا، پروژه «روششناسی و میزکارهای ممیزی آسیبهای مشارکتی» …
بریتانیا
هوش مصنوعی
بریتانیا
هوش مصنوعی
۱۴۰۴/۱۱/۳۰
/ سایت سیتنا
مکرون: دفاع از آزادی بیان در شبکههای اجتماعی بدون شفافیت الگوریتمها، مزخرف است
رئیسجمهور فرانسه طی سخنانی در آکادمی علوم پزشکی هند در نیو دهلی گفت که اگر الگوریتمهای شبکههای اجتماعی شفاف نباشند، ادعای حفاظت از آزادی بیان در فضای مجازی «مزخرف کامل» است، زیرا مردم بدون اطلاع از نحوه هدایت محتوا در معرض خطرات محتوای نفرتانگیز، تبعیض و خطاهای سیستمی قرار میگیرند.
امانوئل مکرون
شبکه اجتماعی
امانوئل مکرون
شبکه اجتماعی
آزادی بیان
هوش مصنوعی
۱۴۰۴/۱۱/۳۰
/ سایت سیتنا
مکرون: دفاع از آزادی بیان در شبکههای اجتماعی بدون شفافیت الگوریتمها مزخرف است
رئیسجمهور فرانسه در سخنانی در آکادمی علوم پزشکی هند در نیو دهلی گفت که اگر الگوریتمهای شبکههای اجتماعی شفاف نباشند، ادعای حفاظت از آزادی بیان در فضای مجازی «مزخرف کامل» است، زیرا مردم بدون اطلاع از نحوه هدایت محتوا در معرض خطرات محتوای نفرتانگیز، تبعیض و خطاهای سیستمی قرار میگیرند.
امانوئل مکرون
شبکه اجتماعی
امانوئل مکرون
شبکه اجتماعی
آزادی بیان
هوش مصنوعی
۱۴۰۴/۱۱/۲۸
/ سایت گیمولوژی
همکاری ایلان ماسک با پنتاگون؛ xAI روی پروژه کنترل پهپادها کار میکند
«ایلان ماسک» زمانی از خطرات رباتهای قاتل سخن میگفت، اما اکنون شرکتهایش در این زمینه قدمهایی برداشتهاند. طبق گزارشهای جدید، اسپیسایکس و زیرمجموعه هوش مصنوعی آن یعنی xAI در یک رقابت مخفیانه پنتاگون شرکت کردهاند. هدف این پروژه، ساخت فناوری پیشرفتهای برای کنترل دسته پهپادهای خودمختار با استفاده …
۱۴۰۴/۱۱/۲۷
/ روزنامه دنیای اقتصاد
راهبرد - ۱۴۰۴/۱۱/۲۷
تاکید اژهای بر استفاده از هوش مصنوعی: محسنیاژهای، رئیس قوه قضائیه دیروز در جلسه معرفی و رونمایی از برخی از دستاوردهای مرکز آمار و فناوری اطلاعات قوه قضائیه، تاکید کرد: در قوه قضائیه باید هر چه بیشتر، متمرکز بر بهکارگیری و استعمال ابزارها و روشهای فناورانه و شیوههای مرتبط با هوش مصنوعی شویم تا …
خودرو
سرقت
خودرو
سرقت
فناوری اطلاعات
قوه قضائیه
۱۴۰۴/۱۱/۲۳
/ سایت گیمولوژی
پژوهشگر ایمنی آنتروپیک بعد از هشدار درباره خطرات هوش مصنوعی استعفا داد
«مرینانک شارما»، پژوهشگر ایمنی هوش مصنوعی شرکت آنتروپیک، از سمت خود استعفا داد و در نامهای هشدار داد که «جهان در خطر است». او در این نامه که روی شبکه اجتماعی ایکس منتشر شد، نگرانی خود را درباره هوش مصنوعی، سلاحهای زیستی و وضعیت کلی جهان اعلام کرد و گفت قصد دارد از صنعت فناوری
۱۴۰۴/۱۱/۲۲
/ سایت فرارو
خط قرمز جدید ارتش آمریکا
نیروی هوایی آمریکا استفاده از هرگونه عینک هوشمند مجهز به دوربین یا هوش مصنوعی را هنگام پوشیدن لباس فرم ممنوع کرد؛ اقدامی که واکنشی به خطرات امنیتی ناشی از فناوریهای پوشیدنی در محیطهای نظامی است.
عینک هوشمند
نیروی هوایی امریکا
عینک هوشمند
نیروی هوایی امریکا
۱۴۰۴/۱۱/۲۱
/ سایت تکناک
روز اینترنت امن؛ بررسی خطرات استفاده کودکان از هوش مصنوعی
به مناسبت روز اینترنت امن، کارشناسان درباره رشد استفاده کودکان از هوش مصنوعی و ساخت تصاویر نامناسب با این ابزارها هشدار جدی دادند.
۱۴۰۴/۱۱/۱۹
/ سایت عصرایران
چتباتهای هوش مصنوعی از کنترل خارج شدهاند
نگرانی فوری دانشمندان، خطرات امنیتی ناشی از دادن دسترسی این عاملها به برنامهها و فایلهای روی دستگاههای شخصی است.
چتبات
هوش مصنوعی.
چتبات
هوش مصنوعی.
ربات
۱۴۰۴/۱۱/۱۳
/ سایت شفقنا
اوپن کلاو؛ کارشناسان درباره خطرات یک دستیار شخصی هوش مصنوعی هشدار میدهند
شفقنا- دستیار شخصی هوش مصنوعی فراگیر به عنوان یک تغییر گام به گام دیده میشود اما کارشناسان نسبت به خطرات آن هشدار میدهند. به گزارش سرویس ترجمه شفقنا؛ گاردین نوشت: یک دستیار شخصی هوش مصنوعی جدید و پرطرفدار، صندوق ورودی ایمیل شما را مدیریت میکند، کل سبد سهام شما را معامله میکند و از [ ]
اوپن کلاو
خطرات هوش مصنوعی
اوپن کلاو
خطرات هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۱۱/۱۰
/ سایت خبرآنلاین
جهان در خطر است / نگاهی به کتاب «ابرتهدیدها» اثر نوریل روبینی
نوریل روبینی ده خطر بزرگ یا ابرتهدید را در این کتاب مطرح میکند که مشتمل بر بحران بدهیها، ناکارآمدی دولتها، مشکلات جمعیتشناختی، وسوسه کسب پول آسان، رکود تورمی، بیثباتی مالی، کاهش سرعت جهانیسازی، خطرات هوشمصنوعی، احتمال تشدید جنگ سرد، و نابودی محیط زیست است.
بازار کتاب
معرفی کتاب
بازار کتاب
معرفی کتاب
کتاب
جنگ
۱۴۰۴/۱۱/۰۸
/ سایت شفقنا
ساعت نمادین آخرالزمان در بحبوحه «خطرات فاجعهبار» به نیمهشب نزدیکتر شد
شفقنا دانشمندان اعلام کردند که جهان بیش از هر زمان دیگری به نابودی نزدیک است، زیرا ساعت آخرالزمان برای سال ۲۰۲۶ روی ۸۵ ثانیه مانده به نیمهشب تنظیم شده است که تاریکترین ارزیابی از چشمانداز بشریت از زمان آغاز این سنت در سال ۱۹۴۷ است. به گزارش سرویس ترجمه شفقنا، بولتن دانشمندان اتمی، سازمانی [ ]
آخرالزمان
جنگ هستهای
آخرالزمان
جنگ هستهای
هوش مصنوعی
۱۴۰۴/۱۱/۰۵
/ سایت خبرفوری
دوستی مرگبار یک نوجوان با ChatGPT
اعتماد نوجوان ۱۸ ساله به ChatGPT برای مشاورهی مصرف مواد مخدر، داستان تلخ و هشداردهندهای را رقم زد که بار دیگر خطرات هوش مصنوعی را یادآور میشود.
مرگ نوجوان
چت جی پی تی
مرگ نوجوان
چت جی پی تی
۱۴۰۴/۱۰/۱۸
/ سایت خبرآنلاین
گفتوگوی شبانه با ChatGPT و مرگی که صبح رقم خورد
اعتماد نوجوان ۱۸ ساله به ChatGPT برای مشاورهی مصرف مواد مخدر، داستان تلخ و هشداردهندهای را رقم زد که بار دیگر خطرات هوش مصنوعی را یادآور میشود.
هوش مصنوعی
خودکشی
هوش مصنوعی
خودکشی
هوش مصنوعی Chat GPT
۱۴۰۴/۱۰/۱۷
/ سایت عصرایران
جهان وقت کافی مقابل خطرات هوش مصنوعی ندارد
متخصص ایمنی هوش مصنوعی در آژانس تحقیقاتی بریتانیا، با ابراز نگرانی از پیشرفت سریع فناوری، گفت که پیشرفتهای آتی ممکن است سریعتر از توانایی کنترل ما از نظر ایمنی باشد.
خطرات هوش مصنوعی
فناوری
خطرات هوش مصنوعی
فناوری
هوش مصنوعی
۱۴۰۴/۱۰/۱۶
/ سایت اطلاعات آنلاین
جهان وقت کافی مقابل خطرات هوش مصنوعی ندارد
متخصص ایمنی هوش مصنوعی در آژانس تحقیقاتی بریتانیا، با ابراز نگرانی از پیشرفت سریع فناوری، گفت که پیشرفتهای آتی ممکن است سریعتر از توانایی کنترل ما از نظر ایمنی باشد.
۱۴۰۴/۱۰/۱۵
/ سایت شفقنا
محقق برجسته: جهان ممکن است زمان لازم جهت آمادهشدن برای مقابله با خطرات ایمنی هوش مصنوعی را نداشته باشد
شفقنا یکی از مقامات ارشد آژانس تحقیقات علمی دولت بریتانیا هشدار داده است که جهان «ممکن است فرصت کافی» برای آمادهسازی در برابر خطرات ایمنی ناشی از سیستمهای پیشرفته هوش مصنوعی نداشته باشد. به گزارش سرویس ترجمه شفقنا، دیوید دالریمپل، مدیر برنامه و کارشناس ایمنی هوش مصنوعی در آژانس آریا (آژانس پروژههای …
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۱۰/۱۱
/ سایت جهان صنعت نیوز
چهار ریسک پیشروی چین در سال جدید
چین در حالی وارد سال ۲۰۲۶ میشود که در ظاهر، آرامتر از سالهای پرتنش گذشته حرکت میکند اما در لایههای زیرین، مجموعهای از بحرانهای انباشته در حال شکلگیری است. از فشارهای جمعیتی و عقبگرد نگرانکننده در حقوق زنان گرفته تا تشدید تنش با ژاپن، ناکامی در تغییر مدل رشد اقتصادی و خطرات ناشی از بهکارگیری …
اقتصاد بین الملل
اقتصاد چین
اقتصاد بین الملل
اقتصاد چین
۱۴۰۴/۱۰/۱۱
/ خبرگزاری ایرنا
ماموگرافی معمولی قابلیت آشکارکردن خطرات پنهان قلبی را دارد
تهران- ایرنا- پژوهشگران میگویند تصاویر ماموگرافی معمولی نه تنها برای تشخیص سرطان پستان، بلکه برای شناسایی زودهنگام خطر بیماریهای قلبیعروقی نیز کاربرد دارد.
سرطان پستان
سرطان
سرطان پستان
سرطان
ماموگرافی
بیماری قلبی
۱۴۰۴/۱۰/۱۱
/ سایت خبرآنلاین
الهیات در عصر لایک و دیس لایک / زلزله ای که فناوری اطلاعات در مرجعیت های سنتی ایجاد کرد / دموکراتیزه شده بخش های سنتی با فناوری اطلاعات
فضای مجازی زمینهای فراهم کرده است که باورهای الهیاتی و دینی به شیوههای جدیدی منتقل شوند و در این روند، پلتفرمهای چندرسانهای نقش بسزایی در ایجاد و تقویت تجربههای معنوی دارند. اما این تأثیرات، با وجود مزایای فراوان، چالشهایی نیز به همراه دارد، از جمله افزایش شک و تردید در منابع دینی و تغییرات سطحی …
هوش مصنوعی
پیام رسان تیک تاک
هوش مصنوعی
پیام رسان تیک تاک
تلگرام
واتس اپ
۱۴۰۴/۱۰/۰۹
/ سایت شفقنا
«سم آلتمن» برای استخدام مسئول دفاع در برابر خطرات ناشی از هوش مصنوعی حقوق 555 هزار دلاری پیشنهاد کرده است
شفقنا- سازنده ChatGPT یک موقعیت شغلی خالی با حقوق ۵۵۵۰۰۰ دلار در سال را با شرح شغلی دلهرهآور آگهی کرده است. به گزارش سرویس ترجمه شفقنا؛ گاردین نوشت: سم آلتمن رییس شرکت اوپنایای برای استخدام رییس بخش آمادگی این شرکت حقوق 555 هزار دلاری پیشنهاد کرده است. «رئیس آمادگی» در OpenAI مستقیماً مسئول دفاع …
خطرات هوش مصنوعی
دفاع در برابر هوش مصنوعی
خطرات هوش مصنوعی
دفاع در برابر هوش مصنوعی
سم آلتمن
هوش انسانی و هوش مصنوعی
۱۴۰۴/۱۰/۰۸
/ خبرگزاری برنا
اپنایآی رئیس ریسک هوش مصنوعی استخدام میکند
برنا - گروه علمی و فناوری: شرکت اپنایآی در حال جذب رئیس جدید برای واحد آمادگی و مدیریت خطرات هوش مصنوعی است تا بر سناریوهایی تمرکز کند که مدلهای هوش مصنوعی میتوانند خطرات جدی ایجاد کنند.
هوش مصنوعی
فناوری
هوش مصنوعی
فناوری
اوپن ای آی
۱۴۰۴/۱۰/۰۷
/ سایت تکناک
شرکت OpenAI مدیر جدید واحد آمادگی برای مقابله با خطرات هوش مصنوعی استخدام می کند
شرکت OpenAI در پی چالشهای ایمنی اخیر، به دنبال جذب مدیر جدیدی برای واحد آمادگی است تا تاثیرات منفی آنها را بر سلامت روان کاربران مدیریت کند.
۱۴۰۴/۱۰/۰۳
/ سایت تکناک
هشدار پزشکان: هوش مصنوعی رابطهای بهدلیل انگیزههای بازار، سلامت روان کاربران را به خطر میاندازد
به گفته پزشکان هاروارد و بیلور، خطرات هوش مصنوعی رابطهای میتواند وابستگی عاطفی و آسیبهای جدی سلامت روان را گسترش دهد.
۱۴۰۴/۱۰/۰۳
/ سایت اندیشه قرن
هشدار OpenAI درباره مرورگرهای هوش مصنوعی / احتمال آسیبپذیری در برابر حملات تزریق پرامپت / ویدیوی کامل جزئیات خطرات و توصیههای امنیتی | اندیشه قرن
OpenAI میگوید تهدید Prompt Injection احتمالاً هرگز بهطور کامل برطرف نخواهد شد.
۱۴۰۴/۱۰/۰۳
/ سایت اندیشه معاصر
هشدار OpenAI درباره مرورگرهای هوش مصنوعی / احتمال آسیبپذیری در برابر حملات تزریق پرامپت / ویدیوی کامل جزئیات خطرات و توصیههای امنیتی
OpenAI میگوید تهدید Prompt Injection احتمالاً هرگز بهطور کامل برطرف نخواهد شد.
۱۴۰۴/۱۰/۰۲
/ سایت رکنا
آیا هوش مصنوعی می تواند قاتل کودکان و حیوانات شود؟ تحلیل کامل!
رکنا: گسترش ویدیوهای جعلی حیوانات در فضای مجازی ساختهشده توسط هوش مصنوعی، میتواند تهدیدی جدی برای محیطزیست و حیاتوحش باشد. کارشناسان هشدار میدهند که ترویج تعاملات غیرواقعی انسان با حیوانات وحشی، خطرات جانی و آسیبهای غیرقابل جبران به دنبال دارد.
فضای مجازی
حیات وحش
فضای مجازی
حیات وحش
حیوانات
۱۴۰۴/۱۰/۰۱
/ سایت عصرایران
۴ حقیقت مهم درباره محدودیت ها و خطرات ChatGPT
از نوامبر ۲۰۲۲، ChatGPT محبوبیت زیادی پیدا کرده است، اما این ابزار هوش مصنوعی محدودیتها و چالشهایی دارد. پاسخهای گاهی نادرست، حافظه محدود و محرمانگی ناقص از مهمترین مسائل آن است. کاربران باید هنگام استفاده از ChatGPT احتیاط کنند و اطلاعات حساس را به اشتراک نگذارند.
محدودیت
ChatGPT
محدودیت
ChatGPT
چت بات
۱۴۰۴/۰۹/۲۹
/ سایت گیمولوژی
چتباتها میتوانند شخصیت انسان را تقلید کنند
پژوهشگران در تحقیق جدیدی ادعا کردهاند که مدلهای هوش مصنوعی پرطرفدار مانند ChatGPT علاوهبر تقلید کلمات و گفتار انسانها، میتوانند ویژگیهای شخصیتی ما را هم شبیهسازی کنند. در شرایطی که نگرانیها درباره دقت، قابلیت اعتماد و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار دادهاند که این موضوع میتواند …
۱۴۰۴/۰۹/۲۷
/ سایت بنکر
آیا ۲۰۲۶ نقطه انفجار بازارها خواهد بود؟
بازارهای جهانی ۲۰۲۵ تابآوری بالایی داشتند اما تمرکز روی هوش مصنوعی و تورم حلنشده، خطرات بالقوه را افزایش داده است.
۱۴۰۴/۰۹/۲۳
/ سایت تکناک
خطرات هوش مصنوعی و چالشهای اخلاقی؛آیا باید نگران باشیم؟
یکی از دغدغهها و نگرانیهای کاربران با پیشرفت تکنولوژی و صنعت AI، خطرات هوش مصنوعی بوده و ما در این مطلب این موضوع را کامل بررسی کردیم.
۱۴۰۴/۰۹/۲۳
/ خبرگزاری برنا
هوش مصنوعی فرصتها و خطرات غیرقابل پیشبینی دارد
برنا - گروه علمی و فناوری: دبیر مطبوعاتی سفارت چین در واشنگتن تاکید کرد هوش مصنوعی فرصتهای عظیم و همزمان مخاطرات غیرقابل پیشبینی برای جهان دارد.
هوش مصنوعی
فناوری
هوش مصنوعی
فناوری
۱۴۰۴/۰۹/۲۳
/ سایت شارا
هوش مصنوعی؛ انقلاب صنعتی بعدی و نقطه عطفی که آینده بشر را بازتعریف میکند - شارا
جفری هینتون هوش مصنوعی را انقلاب صنعتی بعدی میداند و نسبت به خطرات، نابرابری و از دسترفتن کنترل انسان هشدار میدهد.
۱۴۰۴/۰۹/۲۳
/ سایت شفقنا
سفارت چین در واشنگتن: هوش مصنوعی خطرات غیرقابل پیشبینی به همراه دارد
شفقنا- لیو بینگیو، دبیر مطبوعاتی سفارت چین در واشنگتن اعلام کرد که چین از تبادل و همکاری در زمینه هوش مصنوعی حمایت میکند، اما مخاطرات توسعه آن غیرقابل پیشبینی بوده و بین تمامی کشورها مشترک است. به گزارش سرویس ترجمه شفقنا، به نقل از آرتی، این دیپلمات چینی در گفتوگو با خبرگزاری «نووستی» افزود: «چین …
آخرین خبار هوش مصنوعی
آخرین خبار هوش مصنوعی
۱۴۰۴/۰۹/۲۱
/ سایت رکنا
اتهام نقش مستقیم چتجیپیتی در یک قتل خانوادگی
رکنا: یک دادخواست تازه در ایالت کانتیکت آمریکا مطرح شده که در آن ادعا شده هوش مصنوعی چتجیپیتی با تشدید توهمات پسر جوانی، به وقوع قتل مادرش منجر شده است؛ این پرونده توجه رسانهها و متخصصان هوش مصنوعی را به خطرات احتمالی تعامل با کاربران آسیبپذیر جلب کرده است.
قتل
هوش مصنوعی
قتل
هوش مصنوعی
چت جی پی تی
۱۴۰۴/۰۹/۲۰
/ خبرگزاری ایرنا
جاسوسی آسان، تغییر مفهوم خانواده، جعل عمیق و بیکاری گسترده از تهدیدات مهم هوش مصنوعی است
تهران- ایرنا- معاون وزیر امور خارجه در سمپوزیوم حقوق بشر بر نقض حقوق بشر در حمله به تاسیسات اتمی ایران و ترور فرمانده نظامی کشورمان تاکید کرد و کارشناسان حاضر در این نشست نیز از خطرات هوش مصنوعی و لزوم توجه به حقوق بشر در مسیر توسعه این فناوری جدید گفتند.
حقوق بشر
شورای حقوق بشر
حقوق بشر
شورای حقوق بشر
وزارت امور خارجه
۱۴۰۴/۰۹/۲۰
/ سایت شفقنا
پژوهشگران: هوش مصنوعی عامل بالقوه پایان جهان با احتمال ۲۵ درصد خواهد بود
شفقنا- پژوهشگران برجسته حوزه هوش مصنوعی و رهبران پلتفرمهای مهم از جمله جفری هینتون، یوشوا بنجیو، دیمیس هاسابیس، سام آلتمن، داریو آمودی و ایلان ماسک نسبت به خطرات بالقوه این فناوری برای انقراض بشر هشدار دادهاند. این موضوع در کتاب جدیدی با عنوان «اگر کسی آن را بسازد، همه خواهند مرد» (If Anyone Builds …
پایان جهان
پژوهشگران حوزه هوش مصنوعی
پایان جهان
پژوهشگران حوزه هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۹/۲۰
/ سایت فرارو
این مدل های هوش مصنوعی بیشتر از همه اشتباه می کنند
برخی از محبوبترین مدلهای هوش مصنوعی حتی بیشترین میزان پاسخ غلط را دارند و این میتواند خطرات جدی برای کاربران و سازمانها به همراه داشته باشد. آمار تازه نشان میدهد که مدلهایی مثل گراک و جمینای در صدر این فهرست قرار دارند.
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۹/۲۰
/ مجله پیوست
هشدار ۴۲ ایالت آمریکا نسبت به شرکتهای هوش مصنوعی درمورد خطرات چتباتها - پیوست
ائتلافی دوحزبی از دادستانهای کل ۴۲ ایالت آمریکا روز دوشنبه با ارسال نامهای هشدارآمیز به ۱۳ شرکت بزرگ فناوری، خواستار اجرای فوری تدابیر ایمنی برای چتباتهای هوش مصنوعی شدند؛ ابزارهایی که بنا بر گزارشها با مرگ، بستری شدن و آسیبهای شدید روانی در سراسر کشور در ارتباط است. این اقدام همزمان با ثبت هفت …
اوپنایآی
چتبات
اوپنایآی
چتبات
هوش مصنوعی
۱۴۰۴/۰۹/۱۵
/ سایت پارسینه
روانپریشی چتجیپیتی؛ داستانی از خطرات پنهان در دنیای دیجیتال
استفاده افراطی از چتباتهای هوش مصنوعی میتواند توهمات و بحرانهای شدید روانی را در افراد آسیبپذیر تقویت کند.
روان پریشی
روان پریشی
۱۴۰۴/۰۹/۱۴
/ مجله پیوست
سواد هوش مصنوعی؛ ضرورتی برای تصمیمگیری هوشمندانه - پیوست
درک نحوه عملکرد هوش مصنوعی تا سنجش خطرات آن شامل «سواد هوش مصنوعی» میشود که میتواند به همه افراد کمک کند تا در جهانی که روزبهروز الگوریتمیتر میشود، تصمیمات هوشمندانهتر و آگاهانهتری بگیرند. بهگزارش پیوست، سواد هوش مصنوعی به توانایی فرد در درک و تعامل مؤثر با هوش مصنوعی در سناریوهای مختلف اشاره …
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۹/۱۴
/ سایت سلامت نیوز
رونمایی فیلیپس از سامانههای تصویربرداری مبتنی بر هوش مصنوعی
شرکت جهانی فناوری سلامت فیلیپس از مجموعهای نوآورانه از سیستمهای تصویربرداری پزشکی رونمایی کرده است که با هدف افزایش دقت تشخیصی، کاهش خطرات پرتوی و ارتقای سرعت و کارآمدی در روندهای تشخیصی و درمانی طراحی شدهاند. به گزارش مدرن مد به نقل از «سلامت دیجیتال جهانی»، این مجموعه شامل گسترش دسترسی تجاری به …
هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۹/۱۴
/ سایت شفقنا
مدیرعامل گوگل دیپمایند: برخی از خطرات هوش مصنوعی واقعی هستند
شفقنا- مدیرعامل گوگل دیپمایند برخی خطرات هوش مصنوعی را واقعی و ملموس خواند. به گزارش سرویس ترجمه شفقنا؛ آکسیوش نوشت: دمیس هاسابیس، مدیرعامل گوگل دیپمایند در اجلاس هوش مصنوعی پلاس اکسیوس در سانفرانسیسکو گفت: برخی از بزرگترین خطرات هوش مصنوعی، مانند حمله به زیرساختها، در حال حاضر واقعی هستند و باید …
آینده هوش مصنوعی
خطرات هوش مصنوعی
آینده هوش مصنوعی
خطرات هوش مصنوعی
هوش مصنوعی
۱۴۰۴/۰۹/۱۴
/ سایت نورنیوز
عواطف جعلی همدمهای هوش مصنوعی؛ تهدید پنهان برای سلامت روان نسل جدید
با تشدید محدودیتها برای دسترسی نوجوانان به چتباتهای همدم، گرنت بلشکی، متخصص سلامت روان، هشدار میدهد که اتکای نسل جوان به رباتهایی با عواطف مصنوعی میتواند روابط انسانی را تضعیف کرده، احساس تنهایی را افزایش دهد و سلامت روان آنها را در بلندمدت با خطر مواجه کند.
هوش مصنوعی
سلامت روان
هوش مصنوعی
سلامت روان
خطرات هوش مصنوعی
عواطف جعلی
۱۴۰۴/۰۹/۱۲
/ سایت اندیشه قرن
چتباتها چگونه ذهن و روان شما را تغییر میدهند؟/ خطرات پنهان اعتماد به AI!/ توصیههای کارشناسان | اندیشه قرن
پژوهشی تازه نشان میدهد چتباتهای هوش مصنوعی که نقش درمانگر را بر عهده میگیرند، با وجود ظاهر حرفهای، در عمل دچار تخلفات اخلاقی جدی میشوند.
۱۴۰۴/۰۹/۱۲
/ سایت انتخاب
مطالعه: تنظیمگری هوش مصنوعی از ساندویچها کمتر؛ شرکتهای فناوری بهسوی ابرهوش میشتابند
بر اساس ارزیابی جدیدی که هشدار میدهد این ناکامیها با خطرات «فاجعهبار» همراه است، بزرگترین شرکتهای هوش مصنوعی (AI) جهان در عمل به تعهدات ایمنی خود ناکام ماندهاند.
۱۴۰۴/۰۹/۱۲
/ سایت اندیشه معاصر
چتباتها چگونه ذهن و روان شما را تغییر میدهند؟/ خطرات پنهان اعتماد به AI!/ توصیههای کارشناسان
پژوهشی تازه نشان میدهد چتباتهای هوش مصنوعی که نقش درمانگر را بر عهده میگیرند، با وجود ظاهر حرفهای، در عمل دچار تخلفات اخلاقی جدی میشوند.
۱۴۰۴/۰۹/۱۲
/ خبرگزاری ایرنا
برزیل نسبت به دخالت خارجی و خطر جرایم سازمانیافته در انتخابات ۲۰۲۶ هشدار داد
تهران-ایرنا- سازمان اطلاعات برزیل (Abin) گزارش داد که دخالتهای خارجی و اقدامات جرایم سازمانیافته را به عنوان خطرات اصلی برای روند انتخابات ۲۰۲۶ شناسایی کرده است.
لولا داسیلوا
برزیل
لولا داسیلوا
برزیل
برازیلیا
هوش مصنوعی
۱۴۰۴/۰۹/۱۱
/ سایت شفقنا
سازمان ملل نسبت به خطرات استفاده نظامی از هوش مصنوعی هشدار داد
شفقنا – سازمان ملل متحد نسبت به پیامدهای احتمالی استفاده از هوش مصنوعی در اهداف نظامی هشدار داد و تأکید کرد که این فناوری میتواند تهدیدی وجودی برای بشریت ایجاد کند. به گزارش سرویس ترجمه شفقنا، به نقل از آرتی، فیلیپ شیلیکنز، اقتصاددان ارشد دفتر منطقهای برنامه عمران سازمان ملل متحد (UNDP) در آسیا و …
آگاهی
هوش بشری
آگاهی
هوش بشری
هوش مصنوعی
دریافت اخبار بیشتر
۱۴۰۴/۰۹/۱۱ - ۱۷:۲۲:۱۵
مارال فرجاد
نرگس آبیار
پرویز پرستویی
شنبه ۱۵ فروردین ۱۴۰۵ -
4 April 2026