๐๐ฅ๐ข๐๐๐๐ ha lanciato ๐๐ฐ๐๐ง๐.๐-๐๐๐ฑ, un modello basato su unโarchitettura MoE (๐ด๐๐๐๐๐๐-๐๐-๐ฌ๐๐๐๐๐๐), in grado di competere con il connazionale ๐๐๐๐ฉ๐๐๐๐ค-๐๐. Il rilascio arriva in un momento strategico, nel pieno dellโattenzione mediatica per DeepSeek-R1, il reasoning model che sta sfidando o1 di OpenAI, confermando il ruolo sempre piรน centrale della Cina nella corsa allโAI generativa.
๐ย ๐๐ซ๐๐ฌ๐ญ๐๐ณ๐ข๐จ๐ง๐ข ๐๐ฅ ๐ญ๐จ๐ฉ ๐ง๐๐ข ๐๐๐ง๐๐ก๐ฆ๐๐ซ๐ค
Addestrato su oltre 20 trilioni di token, Qwen2.5-Max ha superato DeepSeek-V3 in numerosi benchmark e ha dimostrato performance competitive rispetto a modelli proprietari come GPT-4o e Claude 3.5-Sonnet. ร accessibile tramite Qwen Chat (chat.qwenlm.ai) e attraverso API compatibili con quelle di OpenAI, come quelle di DeepSeek, facilitandone lโintegrazione nei flussi di lavoro esistenti.
โ ๏ธย ๐๐ข๐ฌ๐๐ก๐ข ๐ ๐ข๐ฆ๐ฉ๐ฅ๐ข๐๐๐ณ๐ข๐จ๐ง๐ข ๐ง๐จ๐ซ๐ฆ๐๐ญ๐ข๐ฏ๐
Il Garante della Privacy ha recentemente sanzionato OpenAI per violazioni del GDPR e ha rimosso lโapp di DeepSeek dagli store italiani, ritenendo concreto il rischio di esposizione dei dati personali degli utenti. ร quindi plausibile che misure simili possano essere adottate anche per Qwen2.5-Max. Inoltre, molte aziende europee potrebbero essere riluttanti a utilizzare modelli i cui server si trovano al di fuori della giurisdizione del ๐๐๐๐ ๐ ๐๐๐ฅ๐ฅโ๐๐ ๐๐๐ญ, sollevando interrogativi sulla conformitร e sulla protezione dei dati.
Fonti: https://lnkd.in/gUydnVsf
https://lnkd.in/dKbyFNA7
https://lnkd.in/dX29AX2z
Comments are closed