هوش مصنوعی بعدی دیپسیک میتواند 97 درصد ارزانتر از GPT-4 باشد
گفته میشود DeepSeek R2 از معماری پیشرفته MoE (ترکیب متخصصان) بهره خواهد برد که احتمالاً با مکانیزمهای دروازهبندی مدرن یا ترکیبی از لایههای MoE و لایههای چگال طراحی شده تا پردازشهای سنگین را بهتر مدیریت کند. تعداد پارامترهای R2 حدود یکتریلیون و 200 میلیارد خواهد بود که دوبرابر R1 است. این رقم آن را در کنار مدلهای مطرحی چون GPT-4 Turbo و جمینای 2.0 پرو گوگل قرار میدهد.