Seguici su

Intelligenza artificiale

AWS e AI Generativa per l’infrastruttura del futuro

AWS continua a innovare per supportare l’AI generativa su larga scala con reti a bassa latenza, data center efficienti, sicurezza avanzata e chip AI proprietari, garantendo prestazioni elevate e riduzione dei costi per i clienti

Avatar

Pubblicato

il

Logo AWS
Logo AWS (© Depositphotos)

L’intelligenza artificiale generativa ha rapidamente rivoluzionato vari settori, migliorando processi decisionali, esperienze dei clienti e stimolando l’innovazione. Tuttavia, l’infrastruttura necessaria per supportare queste avanzate tecnologie è il risultato di anni di sviluppo e investimenti da parte di Amazon Web Services (AWS).

Reti su larga scala a bassa latenza

Per addestrare ed eseguire modelli di AI generativa, sono necessari enormi volumi di dati e una latenza di rete ridotta. AWS ha sviluppato soluzioni proprietarie come Elastic Fabric Adapter (EFA) e UltraCluster per garantire prestazioni elevate e latenza minima. UltraCluster 2.0, lanciato recentemente, supporta oltre 20.000 GPU, riducendo del 25% la latenza rispetto alla versione precedente e accelerando l’addestramento dei modelli del 15%.

EFA, un’interfaccia di rete progettata su misura da AWS, offre funzionalità di bypass del sistema operativo per le istanze Amazon EC2. Utilizza il protocollo di trasporto di rete ad alte prestazioni e bassa latenza Scalable Reliable Datagram (SRD), creato appositamente da AWS per AWS. Questi avanzamenti tecnologici hanno permesso ad AWS di innovare rapidamente e di rispondere alle esigenze sempre crescenti dei carichi di lavoro AI generativa.

Efficienza energetica dei data center

La gestione energetica è cruciale per AWS. Miglioramenti continui nei sistemi di raffreddamento e nell’ottimizzazione delle risorse hanno reso l’infrastruttura AWS fino a 4,1 volte più efficiente rispetto alle soluzioni on-premises. Utilizzando tecnologie avanzate di modellazione e materiali a basso impatto carbonico, AWS riesce a ridurre l’impronta di carbonio delle proprie operazioni, garantendo al contempo prestazioni elevate.

AWS ha adottato soluzioni di raffreddamento a liquido per i chipset AI più potenti, come i Superchip NVIDIA Grace Blackwell. Questo approccio multimodale permette di ottenere il massimo delle prestazioni e dell’efficienza, sia per i carichi di lavoro tradizionali che per i modelli AI/ML. Il team di AWS ha progettato i data center – dal layout dei rack alla distribuzione elettrica alle tecniche di raffreddamento – in modo da aumentare costantemente l’efficienza energetica.

Sicurezza by-design

La sicurezza dei dati è una priorità per AWS. Con il sistema AWS Nitro e tecnologie come Nitro Enclaves e AWS Key Management Service (KMS), AWS garantisce che i dati dei clienti siano sempre protetti. Recenti aggiornamenti includono il flusso crittografato end-to-end, esteso ora anche agli acceleratori ML e alle GPU, garantendo una sicurezza senza compromessi.

Il sistema AWS Nitro, lanciato nel 2017, protegge il codice e i dati dei clienti da accessi non autorizzati durante l’elaborazione. AWS Nitro Enclaves e AWS KMS sono integrati per consentire ai clienti di crittografare i dati sensibili dell’intelligenza artificiale utilizzando chiavi di loro proprietà e controllo. Questo garantisce che i dati siano sempre isolati e protetti, anche durante i processi di inferenza.

Chip AI di AWS

AWS ha sviluppato i propri chip AI, tra cui AWS Trainium e AWS Inferentia, per ottimizzare costi e prestazioni. Trainium riduce i costi di addestramento dei modelli ML del 50%, mentre Inferentia offre un miglioramento del 40% nelle prestazioni di prezzo per le inferenze. Questi chip sono progettati per scalare, supportando la crescente domanda di calcolo AI.

Trainium2, il chip AI di terza generazione di AWS, sarà disponibile nel corso dell’anno e promette di fornire un addestramento fino a quattro volte più veloce rispetto ai chip di prima generazione. Inoltre, AWS collabora con partner quali NVIDIA, Intel, Qualcomm e AMD per offrire la più ampia gamma di acceleratori nel cloud per applicazioni di ML e AI generativa.

Continua a leggere le notizie di Diario Innovazione e segui la nostra pagina Facebook

Clicca per commentare

Tu cosa ne pensi?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *