I chip AI sono i componenti forse più importanti nell’evoluzione dell’intelligenza artificiale. La richiesta di questi processori è in forte aumento: Gartner prevede che il mercato dei chip AI più che raddoppierà entro il 2027, fino a raggiungere 140 miliardi di dollari circa.
Secondo IDTechEx, il mercato globale dei chip AI crescerà fino a raggiungere i 257,6 miliardi di dollari entro il 2033. IT e telecomunicazioni, banche, servizi finanziari e assicurativi, elettronica di consumo sono i settori a più ampia richiesta.
L’incremento della domanda è legato all’importanza che l’intelligenza artificiale sta avendo in pressoché tutti i settori. Tutto questo comporta una sempre maggiore capacità di soddisfare le necessità dell’AI. Come spiega IDTechEx,
“La complessità degli algoritmi di addestramento dell’AI sta crescendo a un ritmo sorprendentemente rapido, mentre la quantità di calcolo necessaria per eseguire algoritmi di addestramento di nuova concezione sembra raddoppiare all’incirca ogni quattro mesi”.
Per tenere il passo con questa crescita, è necessario contare su hardware per applicazioni di intelligenza artificiale che non sia solo scalabile – garantendo longevità man mano che vengono introdotti nuovi algoritmi, pur mantenendo bassi i costi operativi –, ma che sia anche in grado di gestire modelli sempre più complessi, in modo sempre più rapido e performante. Per questo servono i chip AI.
Cos’è un chip AI
Un chip AI è un circuito integrato specializzato progettato nel gestire attività di intelligenza artificiale. Include unità di elaborazione grafica (GPU), oltre a specifici dispositivi logici programmabili (Field Programmable Gate Array – FPGA) e circuiti integrati per applicazione specifica (ASIC), specializzati per l’intelligenza artificiale.
I chip AI garantiscono velocità ed efficienza, ovvero sono in grado di completare più calcoli per unità di energia consumata, incorporando un numero enorme di transistor sempre più piccoli, che funzionano più velocemente e consumano meno energia rispetto ai transistor più grandi. A differenza delle CPU (conosciute, più comunemente, come processori), i chip AI hanno anche altre caratteristiche di progettazione ottimizzate per l’intelligenza artificiale, che accelerano notevolmente i calcoli identici, prevedibili e indipendenti richiesti dagli algoritmi di artificial intelligence.
una Domanda in forte crescita
Le prestazioni dei chip AI sono direttamente proporzionali alla richiesta. Non è un caso che, in Corea del Sud, il più grande produttore di chip di memoria al mondo abbia previsto, all’inizio del 2024, di più che raddoppiare il volume di produzione di chip HBM (High Bandwidth Memory).
Proprio pochi giorni fa, il secondo produttore al mondo di chip per memorie e tra i più importanti per quanto riguarda i semiconduttori, ha dichiarato che l’intera produzione 2024 di chip HBM è già esaurita e anche buona parte della linea del 2025 lo è.
Gli HBM sono un tipo di chip di memoria a basso consumo energetico e corsie di comunicazione ultra ampie. Sono destinati alle GPU che elaborano grandi quantità di dati utili per sistemi di intelligenza artificiale. Soprattutto, sono componenti chiave dei chip AI.
In tutto il mondo si vogliono produrre chip AI
La corsa all’AI ha spinto un gruppo di aziende di chip della Cina, sostenute dal governo del Paese, a produrre semiconduttori HBM entro il 2026.
Negli Stati Uniti, l’esigenza di poter disporre di componenti vitali per l’AI ha spinto il Ceo di OpenAI, Sam Altman, ad avviare trattative con investitori per raccogliere fondi per un’iniziativa tecnologica destinata alla costruzione di chip per espandere la capacità di alimentare l’intelligenza artificiale. Come riportava il Wall Street Journal, il progetto richiede tra i 5mila e i 7mila miliardi di dollari.
La ricerca tecnologica prosegue e tutti i colossi del settore ci lavorano. A questo proposito, Intel ha presentato ad aprile il suo ultimo chip AI, Gaudi 3, accreditato per avere quattro volte le prestazioni di calcolo del diretto competitor, incrementando la bandwidth di memoria del 50% e quella di rete di due volte per soddisfare le crescenti necessità del settore, consumando meno energia.
Anche AMD ha presentato di recente novità in tema di chip AI, sotto forma di una nuova semiconduttori per laptop e desktop aziendali abilitati all’intelligenza artificiale mentre cerca di espandere la propria quota mercato dei personal computer AI.
La stesa Gartner la definisce un’autentica corsa, quella ai microprocessori per l’artificial intelligence, che coinvolge molte delle più grandi aziende tecnologiche del mondo, tra cui Google, Apple, Microsoft, Amazon e Meta, “che creano i propri chip AI perché vogliono controllare le risorse chiave e, quindi, il proprio destino.”
A sostenere la crescita del comparto ci sono anche decisioni di rilievo come il CHIPS and Science Act, che ha messo a disposizione 280 miliardi di dollari in nuovi finanziamenti per promuovere la ricerca nazionale e la produzione di semiconduttori negli Stati Uniti, con 52,7 miliardi di dollari stanziati, inclusi 39 miliardi di dollari in sussidi per la produzione di chip negli Stati Uniti.
I sussidi in altre regioni rappresentano ulteriori 130 miliardi di dollari in sussidi governativi per promuovere la sovranità nelle tecnologie avanzate verso l’Europa e paesi tra cui Giappone, India, Cina, Corea del Sud e Taiwan.
Comments are closed.