پنجشنبه / ۲۱ اسفند / ۱۴۰۴ - 12 March, 2026
 سایت گیمولوژی / ۱۴۰۳/۱۲/۱۶

پاسخ علی بابا به DeepSeek؛ مدل QwQ32B با 32 میلیارد پارامتر معرفی شد

 پاسخ علی بابا به DeepSeek؛ مدل QwQ32B با 32 میلیارد پارامتر معرفی شد
شرکت چینی علی بابا از جدیدترین مدل زبانی متن باز خود با نام QwQ32B رونمایی کرد؛ مدلی با 32 میلیارد پارامتر که با هدف بهبود توانایی حل مسائل پیچیده و استدلال منطقی توسعه یافته است. این مدل با بهره گیری از یادگیری تقویتی (RL) و تکنیک های پیشرفته عملکرد قابل توجهی در حوزه هایی مانند