Meta ha recentemente lanciato Llama 3.2,una nuova famiglia di modelli LLM. Questa versione include modelli LLM multimodali di diverse dimensioni (11B e 90B), insieme a modelli piccoli (1B e 3B) in grado di trattare solamente dati testuali.
๐ ๐๐ซ๐๐ฌ๐ญ๐๐ณ๐ข๐จ๐ง๐ข ๐ ๐๐ซ๐ข๐ฏ๐๐๐ฒ
I modelli piรน piccoli (1B e 3B)ย supportano fino a 128K token di contesto e sono pensati per essere eseguiti localmente su dispositivi edge e mobile, permettendo un’esecuzione rapida senza dover ricorrere a processi in cloud, garantendo anche la privacy dei dati. Questi sono ottimizzati per attivitร come la generazione di riassunti e riscrittura del testo.
๐ ๐๐จ๐๐๐ฅ๐ฅ๐ข ๐ฏ๐ข๐ฌ๐ข๐ฏ๐ข ๐ฉ๐๐ซ ๐๐จ๐ฆ๐ฉ๐ข๐ญ๐ข ๐๐จ๐ฆ๐ฉ๐ฅ๐๐ฌ๐ฌ๐ข
I modelli da 11B e 90B sono progettati per compiti visivi, consentendo una comprensione approfondita delle immagini. Questi modelli possono analizzare grafici, estrarre dettagli visivi e fornire descrizioni accurate, diventando cosรฌ strumenti ideali per la comprensione documentale e il supporto alle attivitร di ragionamento visivo, collegando in modo efficace il linguaggio alle immagini.
โ ๐๐๐ฌ๐ญ๐ซ๐ข๐ณ๐ข๐จ๐ง๐ข ๐ฉ๐๐ซ ๐ฅ’๐๐ฎ๐ซ๐จ๐ฉ๐
Un punto importante da sottolineare รจ che, a causa della regolamentazione europea, i modelli multimodali non possono essere utilizzati da individui residenti o aziende con sede principale nell’Unione Europea. Tuttavia, questa restrizione non si applica agli utenti finali che utilizzano prodotti o servizi che incorporano questi modelli multimodali.
Fonte: https://lnkd.in/gvRWRB94
Immagine: Capacity
Comments are closed