L'ultimo modello linguistico di OpenAI apre nuove opportunità per le startup cinesi di IA

Durante la Conferenza Apsara di Hangzhou, organizzata da Alibaba Cloud, le startup cinesi di intelligenza artificiale hanno messo in evidenza i loro sforzi nello sviluppo di modelli linguistici di grandi dimensioni (LLM).

Questi sforzi seguono l’annuncio da parte di OpenAI dei suoi ultimi LLM, tra cui il modello generativo pre-addestrato o1, sostenuto da Microsoft. Il modello è progettato per affrontare compiti complessi, aprendo la strada a progressi in ambiti come la scienza, la programmazione e la matematica.

Durante la conferenza, Kunal Zhilin, fondatore di Moonshot AI, ha sottolineato l’importanza del modello o1, affermando che ha il potenziale per trasformare diversi settori e creare nuove opportunità per le startup nel campo dell’IA.

Zhilin ha dichiarato che l’apprendimento per rinforzo e la scalabilità potrebbero essere fattori cruciali nello sviluppo dell’intelligenza artificiale. Ha fatto riferimento alla “legge della scalabilità”, secondo cui modelli più grandi e con più dati di addestramento offrono prestazioni migliori.

«Questo approccio spinge oltre i limiti delle capacità dell’IA», ha affermato Zhilin, aggiungendo che il modello o1 di OpenAI ha il potenziale per rivoluzionare settori e generare nuove opportunità per le startup.

OpenAI ha inoltre evidenziato la capacità del modello di risolvere problemi complessi, affermando che opera in un modo simile al pensiero umano. Affinando le proprie strategie e imparando dagli errori, il modello migliora continuamente le sue capacità di risoluzione dei problemi.

Zhilin ha affermato che le aziende con sufficiente potenza di calcolo saranno in grado di innovare non solo negli algoritmi, ma anche nei modelli fondamentali di IA. Ritiene che questo sia fondamentale, poiché gli ingegneri dell’IA si affidano sempre più all’apprendimento per rinforzo per generare nuovi dati dopo aver esaurito le fonti organiche disponibili.

Anche Jiang Daxin, CEO di StepFun, ha condiviso il punto di vista di Zhilin, ma ha osservato che la potenza di calcolo rimane una grande sfida per molte startup, soprattutto a causa delle restrizioni commerciali imposte dagli Stati Uniti che limitano l’accesso delle aziende cinesi ai semiconduttori avanzati.

«I requisiti computazionali sono ancora molto elevati», ha dichiarato Daxin.

Una fonte interna a Baichuan AI ha affermato che solo un piccolo gruppo di startup cinesi di IA — tra cui Moonshot AI, Baichuan AI, Zhipu AI e MiniMax — è in grado di fare investimenti su larga scala nell’apprendimento per rinforzo. Queste aziende — chiamate collettivamente le “tigri dell’IA” — sono fortemente coinvolte nello sviluppo degli LLM, spingendo verso la prossima generazione dell’intelligenza artificiale.

Altri annunci dalla Conferenza Apsara

Sempre durante la conferenza, Alibaba Cloud ha fatto diversi annunci, tra cui il rilascio della famiglia di modelli Qwen 2.5, che presenta progressi nella programmazione e nella matematica. I modelli spaziano da 0,5 miliardi a 72 miliardi di parametri e supportano circa 29 lingue, tra cui cinese, inglese, francese e spagnolo.

Modelli specializzati come Qwen2.5-Coder e Qwen2.5-Math hanno già guadagnato popolarità, con oltre 40 milioni di download sulle piattaforme Hugging Face e ModelScope.

Alibaba Cloud ha inoltre ampliato il proprio portafoglio di prodotti, introducendo un modello testo-video nel suo generatore di immagini, Tongyi Wanxiang. Il modello è in grado di creare video in stile realistico o animato, con possibili applicazioni nella pubblicità e nella produzione cinematografica.

Infine, Alibaba Cloud ha presentato Qwen 2-VL, l’ultima versione del suo modello linguistico visivo. Questo è in grado di gestire video della durata superiore ai 20 minuti, supporta il question answering basato su video ed è ottimizzato per dispositivi mobili e robotica.

Nuova Vecchia

نموذج الاتصال