چهارشنبه / ۸ مرداد / ۱۴۰۴ - 30 July, 2025
 سایت گیمولوژی / ۱۴۰۳/۱۲/۱۶

پاسخ علی‌بابا به DeepSeek؛ مدل QwQ-32B با 32 میلیارد پارامتر معرفی شد

پاسخ علی‌بابا به DeepSeek؛ مدل QwQ-32B با 32 میلیارد پارامتر معرفی شد
شرکت چینی علی‌بابا از جدیدترین مدل زبانی متن‌باز خود با نام QwQ-32B رونمایی کرد؛ مدلی با 32 میلیارد پارامتر که با هدف بهبود توانایی حل مسائل پیچیده و استدلال منطقی توسعه یافته است. این مدل با بهره‌گیری از یادگیری تقویتی (RL) و تکنیک‌های پیشرفته عملکرد قابل‌توجهی در حوزه‌هایی مانند ریاضیات، کدنویسی و تحلیل مسائل پیچیده