Dell Technologies e NVIDIA collaborano per abilitare e accelerare i carichi di lavoro di GenAI, ML (Machine Learning) e DL (Deep Learning) in modo da soddisfare le esigenze di ogni tipologia di business e settore verticale.
La GenAI di Dell Technologies e NVIDIA, infatti, consente di generare previsioni e output con time-to-value più rapido, accelerando al tempo stesso il processo decisionale.
Questa architettura congiunta offre una progettazione modulare, protetta e scalabile che supporta numerosi casi d’uso di inferenza e requisiti di elaborazione.
Le aziende, quindi, possono semplificare l’adozione della GenAI all’interno della propria infrastruttura e ridurre il tempo necessario per ottenere i risultati con una soluzione testata.
Che cos’è l’inferenza
In riferimento all’AI, l’inferenza indica il processo che prevede l’uso di un modello addestrato a generare previsioni, prendere decisioni o produrre output in base ai dati di input.
Prevede l’applicazione delle conoscenze e dei pattern acquisiti durante la fase di addestramento del modello a dati nuovi e sconosciuti.
Durante l’inferenza, il modello addestrato acquisisce i dati di input e li elabora mediante i propri algoritmi computazionali o l’architettura della rete neurale per produrre un output o una previsione.
Il modello poi applica le ponderazioni, le regole o i parametri appresi per trasformare i dati di input in informazioni o azioni significative.
L’inferenza è una fase cruciale nel ciclo di vita di un sistema AI: dopo aver addestrato un modello su dati con o senza etichetta per apprendere i pattern e le correlazioni, infatti, l’inferenza permette al modello di generalizzare la propria conoscenza e di fare previsioni o generare risposte su dati reali o sconosciuti.
Le soluzioni NVIDIA e Dell Technologies per la GenAI
- NVIDIA Nemo: framework aziendale end-to-end per consentire agli sviluppatori di creare, personalizzare e implementare modelli di AI generativa con miliardi di parametri
- NVIDIA AI Enterprise: software AI Ops di partner per un’esperienza utente finale ottimale, inclusi notebook interattivi, gestione degli esperimenti, pipeline e altro ancora
- NVIDIA Base Command Manager Essentials: livello di orchestration e programmazione per l’esecuzione di addestramento AI, inclusi processi su più nodi e dimensionamento dell’inferenza
- OpenManage Enterprise OneFS: strumenti di gestione Dell familiari che offrono monitoraggio proattivo e analisi predittiva, semplificando le operazioni dell’infrastruttura
Storage Dell EMC per l’AI: PowerScale All-Flash scale-out NAS
Dell EMC PowerScale All-Flash scale-out NAS fornisce prestazioni di analisi e simultaneità estrema su larga scala per soddisfare in modo coerente gli algoritmi analitici che richiedono un utilizzo intensivo di dati.
Questa soluzione elimina i colli di bottiglia di I/O per l’AI con una larghezza di banda fino a 18 volte maggiore, fino a 15 GB/s per chassis e fino a 540 GB/s per cluster.
Utilizza l’analisi dei dati in loco, che sfrutta il supporto multiprotocollo come SMB, NFS, HTTP e HDFS nativo per supportare più utilizzi.
Ha una scalabilità estrema, con un dimensionamento semplice e trasparente a una capacità fino a 21 volte maggiore rispetto alla scalabilità di altri storage, da decine di TB a decine di PB per cluster con efficienza di storage leader del settore fino all’85%.
Comments are closed.