La startup italiana ASC27, attiva nel settore dell’Intelligenza Artificiale, ha recentemente presentato il suo nuovo modello di linguaggio, Vitruvian-1, che conta 14 miliardi di parametri. Questo modello ha già dimostrato di avere prestazioni significative in un benchmark matematico, ottenendo risultati comparabili a quelli di modelli noti come o1 e o1-mini di OpenAI. La notizia è stata condivisa il 6 febbraio 2025 dal fondatore e CEO Nicola Grandis attraverso un post su LinkedIn.
Asc27 e il suo sviluppo tecnologico
ASC27, fondata nel 2020 da Nicola Grandis, ha sede a Roma, ma possiede anche uffici a Bologna, Milano e Chieti. L’azienda si specializza nello sviluppo di soluzioni di Intelligenza Artificiale, avendo già lanciato prodotti innovativi come Enki, una piattaforma AI che facilita la creazione di contenuti formativi, e ReAvat, un generatore di avatar digitali. Quest’ultimo è stato utilizzato nel 2023 da Beppe Grillo per simulare la sua capacità di parlare cinese, un episodio che ha suscitato notevole interesse e discussione, come evidenziato in un servizio del programma Report.
Il modello Vitruvian-1 e le sue caratteristiche
Il modello Vitruvian-1 è stato progettato con un’attenzione particolare alla lingua italiana, utilizzando un’architettura Transformer all’avanguardia. Secondo l’ENIA, l’ente nazionale per l’Intelligenza Artificiale, l’addestramento di Vitruvian-1 è stato effettuato su dataset specificamente curati per la lingua italiana. Al momento, il modello si trova alla sua quinta fase di addestramento, durante la quale ha acquisito conoscenze in ambiti come medicina, diritto e tecniche militari. Attualmente, ASC27 sta cercando alpha-tester per valutare le prestazioni di Vitruvian-1 attraverso un modulo di registrazione online.
Risultati nel benchmark MATH-500
Vitruvian-1 ha raggiunto un punteggio di 93,60 nel benchmark MATH-500 durante la quarta fase di addestramento, migliorando ulteriormente a 94 nella fase successiva. Per confronto, il modello o1 di OpenAI ha ottenuto un punteggio di 96,4, mentre o1-mini ha totalizzato 92,4. ASC27 sta anche lavorando per testare Vitruvian-1 su altri benchmark come AIME24 e MMLU. Questi risultati, sebbene promettenti, sono dichiarati da ASC27 e si attende un’ulteriore validazione da parte di enti indipendenti.
Prospettive future e considerazioni
Nonostante il punteggio di 94 nel benchmark MATH-500 sia di per sé impressionante, è importante notare che si avvicina ai risultati del modello R1 di DeepSeek, che ha registrato uno score di 93,9. La model card di Vitruvian-1 non è ancora stata pubblicata, e non sono stati rivelati dettagli sulla specifica architettura Transformer utilizzata. Tuttavia, ASC27 ha menzionato l’ottimizzazione del modello attraverso tecniche di quantizzazione e pruning per ridurre il consumo energetico. Inoltre, Grandis ha descritto il modello come capace di assimilare concetti e tecniche di ragionamento.
ASC27 ha anche condiviso una risposta a un prompt riguardante la piazza Tienanmen, fornita dal modello Vitruvian-1 da 19B, che ha superato un test a cui il modello originale di DeepSeek si era rifiutato di rispondere. La risposta è stata considerata incoraggiante, suggerendo un potenziale significativo per il futuro di Vitruvian-1 nel panorama dell’Intelligenza Artificiale.