پاسخ علیبابا به DeepSeek؛ مدل QwQ-32B با 32 میلیارد پارامتر معرفی شد
شرکت چینی علیبابا از جدیدترین مدل زبانی متنباز خود با نام QwQ-32B رونمایی کرد؛ مدلی با 32 میلیارد پارامتر که با هدف بهبود توانایی حل مسائل پیچیده و استدلال منطقی توسعه یافته است. این مدل با بهرهگیری از یادگیری تقویتی (RL) و تکنیکهای پیشرفته عملکرد قابلتوجهی در حوزههایی مانند ریاضیات، کدنویسی و تحلیل مسائل پیچیده