๐€๐ฅ๐ข๐›๐š๐›๐š ha lanciato ๐๐ฐ๐ž๐ง๐Ÿ.๐Ÿ“-๐Œ๐š๐ฑ, un modello basato su unโ€™architettura MoE (๐‘ด๐’Š๐’™๐’•๐’–๐’“๐’†-๐’๐’‡-๐‘ฌ๐’™๐’‘๐’†๐’“๐’•๐’”), in grado di competere con il connazionale ๐ƒ๐ž๐ž๐ฉ๐’๐ž๐ž๐ค-๐•๐Ÿ‘. Il rilascio arriva in un momento strategico, nel pieno dellโ€™attenzione mediatica per DeepSeek-R1, il reasoning model che sta sfidando o1 di OpenAI, confermando il ruolo sempre piรน centrale della Cina nella corsa allโ€™AI generativa.

๐Ÿ“Šย ๐๐ซ๐ž๐ฌ๐ญ๐š๐ณ๐ข๐จ๐ง๐ข ๐š๐ฅ ๐ญ๐จ๐ฉ ๐ง๐ž๐ข ๐›๐ž๐ง๐œ๐ก๐ฆ๐š๐ซ๐ค
Addestrato su oltre 20 trilioni di token, Qwen2.5-Max ha superato DeepSeek-V3 in numerosi benchmark e ha dimostrato performance competitive rispetto a modelli proprietari come GPT-4o e Claude 3.5-Sonnet. รˆ accessibile tramite Qwen Chat (chat.qwenlm.ai) e attraverso API compatibili con quelle di OpenAI, come quelle di DeepSeek, facilitandone lโ€™integrazione nei flussi di lavoro esistenti.

โš ๏ธย ๐‘๐ข๐ฌ๐œ๐ก๐ข ๐ž ๐ข๐ฆ๐ฉ๐ฅ๐ข๐œ๐š๐ณ๐ข๐จ๐ง๐ข ๐ง๐จ๐ซ๐ฆ๐š๐ญ๐ข๐ฏ๐ž
Il Garante della Privacy ha recentemente sanzionato OpenAI per violazioni del GDPR e ha rimosso lโ€™app di DeepSeek dagli store italiani, ritenendo concreto il rischio di esposizione dei dati personali degli utenti. รˆ quindi plausibile che misure simili possano essere adottate anche per Qwen2.5-Max. Inoltre, molte aziende europee potrebbero essere riluttanti a utilizzare modelli i cui server si trovano al di fuori della giurisdizione del ๐†๐ƒ๐๐‘ ๐ž ๐๐ž๐ฅ๐ฅโ€™๐€๐ˆ ๐€๐œ๐ญ, sollevando interrogativi sulla conformitร  e sulla protezione dei dati.

Fonti: https://lnkd.in/gUydnVsf
https://lnkd.in/dKbyFNA7
https://lnkd.in/dX29AX2z

Comments are closed