Il mondo dell’Intelligenza Artificiale rappresenta la branca delle tecnologie digitali in cui la velocità con cui le innovazioni vengono introdotte è la più elevata.

In questo periodo, infatti, si sta passando gradatamente dall’intelligenza artificiale “weak” capace di risolvere un solo determinato problema, grazie ad una serie di esempi forniti come input, ad un approccio completamente nuovo, che la rende abile a gestire una serie di problemi eterogenei che possono essere o meno correlati tra loro: la cosiddetta intelligenza artificiale “strong”, a cui abbiamo già dedicato un articolo.

Questo passaggio è reso possibile soprattutto dall’introduzione di nuovi modelli denominati “foundation models” e dalle novità legate alla Generative AI, che stanno prendendo il posto rispetto ai modelli basati sull’AI tradizionale.

Questa adozione un tempo non era possibile, perché gli algoritmi di AI tradizionale richiedevano molto piu’ tempo per il loro sviluppo, e ciò portava ad un gap con la grande velocità con cui invece l’Intelligenza Artificiale evolve.

Cosa sono i foundation models?

I Foundation Models sono dei modelli pre-trainati utilizzati per i processi di Intelligenza Artificiale e basati su un insieme di dati in input non etichettati: ciò rappresenta un approccio totalmente differente rispetto al passato, nel quale era necessario un lavoro di tagging ed organizzazione del materiale in ingresso per poterlo gestire correttamente.

I foundation models, perciò, portano ad un grande beneficio: si passa da un concetto di caso d’uso, caro al mondo dell’Intelligenza Artificiale perché seguiva la necessità di risolvere un determinato problema in un determinato modo e ciò lo rendeva facilmente replicabile, ad un concetto di versatilità ed adattabilità mai pensate prima.

I foundation models come concetto sono nati presso l’Istituto di Stanford per l’Intelligenza Artificiale, fondato nel 2019 con l’obiettivo di guidare la ricerca nel mondo dell’Intelligenza Artificiale e sulla sostenibilità della stessa, fornendo un contributo allo sviluppo di policy e regolamentazioni sul tema.

Il contributo di IBM

IBM, grazie a CodeNet e CodeFlare, è precursore in questo ed i foundation models sviluppati da IBM ne sono l’evoluzione: pre-trainati su database che supera i terabytes, questo porta ad aumentare la loro precisione con un ampio margine di sicurezza.

CodeNet, infatti, è il dataset di IBM che contiene un gran numero di linguaggi di codifica e che si può utilizzare con questi modelli per automatizzare con efficacia i processi aziendali e velocizzare la modernization.

CodeFlare, invece, è uno strumento open source che imposta, esegue e scala i carichi di lavoro per i modelli di machine learning e basa la sua funzione sui foundation models.

I foundation models sviluppati da IBM hanno la capacità di svolgere una serie di attività, senza che debba essere data loro una serie di esempi taggati: ad esempio, è possibile per loro generare delle stringhe di codice, un documento testuale, sostenere una conversazione o gestire una classificazione automatica di alcuni elementi, e molto altro.

WATSON.X ED I FOUNDATION MODELS

Anche all’interno di watsonx.ai, la nuova libreria di Watson dedicata all’Intelligenza Artificiale del quale abbiamo parlato qui, sono disponibili alcune serie di “foundation models” sul linguaggio, alcuni anche di dimensioni parecchio elevate, oltre a strumenti per gestire e ottimizzare la gestione dei prompt (ovvero l’inserimento delle istruzioni da parte di un utente).

In watsonx.ai, infatti, sono disponibili due modelli denominati “granite”, uno dedicato alla gestione dei dialoghi mentre l’altro su un modello di domanda e risposta. Inoltre, si possono importare ed applicare altri foundation models creati da comunità esterne online.

Watson NLP, infine, grazie alle innovazioni introdotte dai foundation models, potrebbe aumentare le sue capacità con una grande riduzione delle annotazioni richieste in input, rispetto ai precedenti modelli.

CONCLUSIONI E LIMITI

I foundation models hanno alcuni limiti che verranno colmati con gli aggiornamenti, ma rappresentano diverse opportunità di evoluzione.

Tra i limiti, vediamo come ciascun foundation models ha una sua licenza che limita il modo in cui lo stesso può essere utilizzato; altri hanno la limitazione del linguaggio (funzionano ad esempio meglio con la lingua originale) e altri ancora hanno una lunghezza massima per il contesto e per gli input possibili.

Un altro limite è che una volta superata la fase del pre-training, è possibile ottimizzare il modello per un compito specifico, utilizzandolo in un modo verticale e rendendolo ancora meno utile in caso ci sia da fare degli incroci con altre funzioni.

Tra le opportunità, invece, la principale è la riduzione complessiva del tempo necessario allo sviluppo di soluzioni basate sull’Intelligenza Artificiale perché si elimina il tempo passato a pre-etichettare i dati in ingresso.

Infine, eliminando la parte di programmazione e di training del modello si fornisce alle imprese un modo sicuro e veloce per utilizzare l’Intelligenza Artificiale, senza che sia necessaria una solida competenza di programmazione pregressa.

ENTRA ANCHE TU NELLA COMMUNITY AINLAB: VISITA IL SITO UFFICIALE
Author

Comments are closed.