In queste settimane ricche di rilasci dalla Cina, con il fenomeno ๐ƒ๐ž๐ž๐ฉ๐’๐ž๐ž๐ค ๐ž ๐ฅโ€™๐ฎ๐ฅ๐ญ๐ข๐ฆ๐จ ๐ฆ๐จ๐๐ž๐ฅ๐ฅ๐จ ๐๐ข ๐€๐ฅ๐ข๐›๐š๐›๐š, ๐”๐’๐€ ๐ž ๐”๐„ cercano di stare al passo lanciando due nuovi modelli: OpenAI o3-mini e Mistral AI Small 3.

โšก ๐Ž๐ฉ๐ž๐ง๐€๐ˆ ๐จ๐Ÿ‘-๐ฆ๐ข๐ง๐ข
OpenAI o3-mini fa parte della famiglia di modelli reasoning di OpenAI, progettata per essere lo stato dellโ€™arte nelle AI capaci di “ragionare”. o3-mini non รจ il modello piรน potente dellโ€™azienda di Sam Altman, ma punta a bilanciare accuratezza e bassa latenza. รˆ il primo modello di ragionamento di OpenAI a supportare funzionalitร  come function calling e generazione di output strutturati, ed รจ disponibile su ChatGPT per gli utenti Plus, Team e Pro. Inoltre, consente di scegliere tra diversi livelli di ragionamento, adattandosi a esigenze specifiche di precisione o velocitร .

๐Ÿš€ ๐Œ๐ข๐ฌ๐ญ๐ซ๐š๐ฅ ๐’๐ฆ๐š๐ฅ๐ฅ ๐Ÿ‘
Mistral Small 3, modello da 24B di parametri, rappresenta lโ€™unica alternativa made in UE in grado di competere con i giganti dellโ€™AI, offrendo prestazioni comparabili a modelli come Llama 3.3 70B o Qwen 32B. Grazie alla sua architettura ottimizzata, riduce drasticamente la latenza, rendendolo ideale per il deployment locale e per applicazioni che richiedono risposte rapide e affidabili. Si posiziona nello stesso segmento di GPT-4o mini, ma in una versione open-weight. Il modello รจ infatti rilasciato con licenza Apache 2.0, che lo rende facilmente accessibile, personalizzabile e utilizzabile sia per la ricerca che per applicazioni commerciali.

๐Ÿ”“ย ๐Ž๐ฉ๐ž๐ง ๐จ ๐‚๐ฅ๐จ๐ฌ๐ž๐? ๐๐ฎ๐ž ๐Ÿ๐ข๐ฅ๐จ๐ฌ๐จ๐Ÿ๐ข๐ž ๐š ๐œ๐จ๐ง๐Ÿ๐ซ๐จ๐ง๐ญ๐จ
Il confronto piรน interessante di queste settimane รจ quello tra modelli closed e open, come visto nel recente derby cinese tra DeepSeek-r1 e Qwen2.5-Max di cui abbiamo parlato nei due articoli precedenti. Attualmente, gli utenti e le prestazioni sembrano favorire la filosofia closed, che offre i modelli piรน avanzati e utilizzati. Tuttavia, la distanza si sta riducendo, soprattutto in termini di performance. Ad oggi, il principale limite dei modelli open-source (o open-weight) รจ la potenza computazionale necessaria per utilizzare modelli di frontiera non distillati o quantizzati. Questo sposta il problema della privacy e dei costi sui server necessari per ospitare versioni “casalinghe” dei modelli piรน grandi e performanti, oltre a richiedere un livello di know-how piรน elevato per la gestione e lโ€™ottimizzazione.

Fonti: https://lnkd.in/gSn9NaUm
https://lnkd.in/dWGrUgkV

Comments are closed