علیبابا از مدل زبانی متنباز QwQ-32B با ۳۲ میلیارد پارامتر رونمایی کرد
شرکت چینی علیبابا بهتازگی از مدل زبانی متنباز جدید خود با نام QwQ-32B رونمایی کرده است؛ مدلی که با ۳۲ میلیارد پارامتر طراحی شده و هدف آن بهبود توانایی در حل مسائل پیچیده و استدلال منطقی است. این مدل با بهرهگیری از تکنیکهای پیشرفته مانند یادگیری تقویتی (RL)، عملکرد قابلتوجهی در حوزههایی نظیر ریاضیات، کدنویسی