In queste settimane ricche di rilasci dalla Cina, con il fenomeno ๐๐๐๐ฉ๐๐๐๐ค ๐ ๐ฅโ๐ฎ๐ฅ๐ญ๐ข๐ฆ๐จ ๐ฆ๐จ๐๐๐ฅ๐ฅ๐จ ๐๐ข ๐๐ฅ๐ข๐๐๐๐, ๐๐๐ ๐ ๐๐ cercano di stare al passo lanciando due nuovi modelli: OpenAI o3-mini e Mistral AI Small 3.
โก ๐๐ฉ๐๐ง๐๐ ๐จ๐-๐ฆ๐ข๐ง๐ข
OpenAI o3-mini fa parte della famiglia di modelli reasoning di OpenAI, progettata per essere lo stato dellโarte nelle AI capaci di “ragionare”. o3-mini non รจ il modello piรน potente dellโazienda di Sam Altman, ma punta a bilanciare accuratezza e bassa latenza. ร il primo modello di ragionamento di OpenAI a supportare funzionalitร come function calling e generazione di output strutturati, ed รจ disponibile su ChatGPT per gli utenti Plus, Team e Pro. Inoltre, consente di scegliere tra diversi livelli di ragionamento, adattandosi a esigenze specifiche di precisione o velocitร .
๐ ๐๐ข๐ฌ๐ญ๐ซ๐๐ฅ ๐๐ฆ๐๐ฅ๐ฅ ๐
Mistral Small 3, modello da 24B di parametri, rappresenta lโunica alternativa made in UE in grado di competere con i giganti dellโAI, offrendo prestazioni comparabili a modelli come Llama 3.3 70B o Qwen 32B. Grazie alla sua architettura ottimizzata, riduce drasticamente la latenza, rendendolo ideale per il deployment locale e per applicazioni che richiedono risposte rapide e affidabili. Si posiziona nello stesso segmento di GPT-4o mini, ma in una versione open-weight. Il modello รจ infatti rilasciato con licenza Apache 2.0, che lo rende facilmente accessibile, personalizzabile e utilizzabile sia per la ricerca che per applicazioni commerciali.
๐ย ๐๐ฉ๐๐ง ๐จ ๐๐ฅ๐จ๐ฌ๐๐? ๐๐ฎ๐ ๐๐ข๐ฅ๐จ๐ฌ๐จ๐๐ข๐ ๐ ๐๐จ๐ง๐๐ซ๐จ๐ง๐ญ๐จ
Il confronto piรน interessante di queste settimane รจ quello tra modelli closed e open, come visto nel recente derby cinese tra DeepSeek-r1 e Qwen2.5-Max di cui abbiamo parlato nei due articoli precedenti. Attualmente, gli utenti e le prestazioni sembrano favorire la filosofia closed, che offre i modelli piรน avanzati e utilizzati. Tuttavia, la distanza si sta riducendo, soprattutto in termini di performance. Ad oggi, il principale limite dei modelli open-source (o open-weight) รจ la potenza computazionale necessaria per utilizzare modelli di frontiera non distillati o quantizzati. Questo sposta il problema della privacy e dei costi sui server necessari per ospitare versioni “casalinghe” dei modelli piรน grandi e performanti, oltre a richiedere un livello di know-how piรน elevato per la gestione e lโottimizzazione.
Fonti: https://lnkd.in/gSn9NaUm
https://lnkd.in/dWGrUgkV
Comments are closed