Duned

AWS Cloud Region, dati al sicuro e sostenibilità ambientale

 


numeri della nuova cloud region di AWS di Milano sono stati evidenziati nel recente AWS Summit che si è tenuto nel capoluogo lombardo. La Region (prima in Italia e sesta in Europa) porterà con sé un investimento fino a 2 miliardi di euro entro il 2029 nel nostro Paese da parte di AWS e l’investimento sosterrà, in media, 1.155 posti di lavoro equivalenti a tempo pieno (Fte) all’anno entro il 2029. Le stime si basano sullo studio “AWS Economic Impact Study: AWS Investment in Italy”, che illustra l’impatto per l’Italia dei prossimi investimenti nella nuova Region in ambiti quali l’innovazione tecnologica, la creazione di posti di lavoro, le reti di fornitori locali, e il supporto della comunità. La stima sui posti di lavoro sostenuti dall’investimento di AWS include il sostegno dato all’occupazione nella catena di approvvigionamento dei data center, come telecomunicazioni, edilizia non residenziale, manutenzione delle strutture, operazioni del data center e generazione di elettricità.

I server di AWS e le operazioni di calcolo vanno, ovviamente, alimentati da energia elettrica, ma il Cloud offre alle aziende un’opportunità di migliorare la loro efficienza nell’uso delle risorse, riducendo sia i costi che le emissioni di carbonio. Secondo una ricerca commissionata da AWS a 451 Research, che ha intervistato oltre 300 aziende che gestiscono i propri data center in Francia, Germania, Irlanda, Spagna e Svezia, le aziende europee hanno la possibilità di ridurre il proprio consumo energetico di quasi l’80% spostando i carichi di lavoro di elaborazione dai data center locali al cloud AWS. Inoltre, una volta che AWS sarà alimentata al 100% da energia rinnovabile, obiettivo raggiungibile entro il 2025, le aziende potrebbero potenzialmente ridurre le emissioni di carbonio da un carico di lavoro medio fino al 96%. Un percorso necessario per il pianeta, oltre che per la digitalizzazione e la competitività delle imprese.

 

Applicazioni moderne: microservizi e architetture serverless

Il Cloud aiuta le aziende a diventare data-driven permettendo di modernizzare la loro infrastruttura IT e le applicazioni con nuovi approcci architetturali quali il Function as a Service, i Microservizi e il modello serverless. È un viaggio a più tappe lungo la strada della virtualizzazione dell’IT che ha un unico obiettivo: liberare il più possibile le imprese dai compiti e dai costi legati all’hardware e, in parte, del software, per concentrarsi sui servizi. I servizi sono il cuore delle nuove aziende customer-centriche, flessibili e resilienti, capaci di reagire rapidamente e attivamente ai cambiamenti. Il fornitore del servizio Cloud pubblico si occupa della parte legata a infrastruttura, piattaforme e software; le imprese sviluppano in modo semplificato, perché automatizzato, i servizi che danno valore aggiunto e differenziazione alla propria proposta commerciale.

Ma che cos’è veramente un’applicazione moderna? La modernizzazione delle applicazioni parte dalla scomposizione dell’architettura legacy (solitamente monolitica) in Microservizi. L’architettura a Microservizi permette di sviluppare applicazioni organizzate in servizi indipendenti di piccole dimensioni che comunicano tra loro tramite API (Application Programming Interface) ben definite. I Microservizi vengono successivamente containerizzati in PaaS, ossia eseguiti in ambienti runtime che contengono lo stretto necessario per svolgere tale operazione.

Alcune funzioni possono essere eseguite in ambienti serverless, perché sono basate su uno specifico evento. Il modello di esecuzione basato su eventi è quello che chiamiamo Function-as-a-Service, o FaaS, un servizio Cloud che consente agli sviluppatori di creare, eseguire e gestire i pacchetti applicativi come funzioni, senza dover mantenere un’infrastruttura propria. L’esecuzione avviene in container stateless, come AWS Fargate, che sono alla base delle architetture serverless.

L’elaborazione serverless è estremamente scalabile e consente di automatizzare del tutto il provisioning delle risorse IT necessarie per eseguire un carico di lavoro event-driven. In pratica le risorse rimangono attive soltanto mentre dura l’evento, abbattendo i costi diretti che si avrebbero con una disponibilità costante di risorse che però non si utilizzano del tutto. Qui, invece, il provider esegue la funzione per lo stretto tempo necessario al suo scopo, ottimizzando al massimo l’allocazione e il relativo dispendio di risorse. Se ci sono picchi l’allocazione aumenta scongiurando qualunque downtime; quando le risorse sono sovradimensionate vengono ridotte. I dati su questi andamenti possono essere analizzati per fornire alle aziende informazioni utili per prendere decisioni in tempo reale.

 

Innovazione nel database: storage semplificato

 


Il modello serverless può essere usato anche per lo sviluppo secondo l’architettura a Microservizi e la creazione di servizi e applicazioni moderne, capaci di soddisfare a pieno i requisiti di disponibilità, affidabilità, prestazione e scalabilità. La scalabilità e la flessibilità di sviluppo permettono alle aziende di essere più veloci nel time-to-market, sperimentando rapidamente, correggendo e validando in corso d’opera, reagendo velocemente agli stimoli del mercato ed effettuando l’integrazione e la distribuzione senza incorrere in costi esorbitanti. Al tempo stesso, applicazioni scalabili realizzate ed eseguite con il paradigma serverless sono in grado di adattare in autonomia le risorse per far fronte ai picchi di richieste, riducendo sia l’impatto sui consumi energetici sia lo sforzo per gestire l’infrastruttura Cloud alla base del loro funzionamento.

Ma i casi d’uso del modello serverless sono tanti e, tra questi, rientrano i sistemi di gestione dei dati e i servizi ETL (estrazione, trasformazione e caricamento).

I provider del Cloud pubblico offrono tutti gli strumenti che servono per modernizzare lo storage e sfruttare al meglio i dati. AWS, per esempio, propone Amazon Simple Storage Service (Amazon S3), un servizio di storage di oggetti altamente scalabile che può essere utilizzato per un’ampia gamma di soluzioni di storage, tra cui siti web, applicazioni mobili, backup e Data Lake.

AWS Lambda consente di eseguire il codice senza effettuare il provisioning dei server o gestirli, quindi in maniera serverless e event-based: AWS Lambda è un servizio basato su eventi e si può configurare il codice in modo che venga avviato automaticamente da altri servizi AWS.

Come Data Warehouse, AWS offre Amazon Redshift, un servizio interamente gestito per petabyte di dati, volumi enormi che sempre più aziende si trovano a raccogliere e a dover gestire (dati strutturati e semi-strutturati generati da siti web, Internet of Things, e così via). Nel Data Warehouse e nel Data Lake questi dati possono essere interrogati utilizzando SQL standard.

Infine, AWS Glue è un servizio ETL completamente gestito che semplifica la preparazione e il caricamento dei dati per l’analisi. Il Machine Learning come parte integrante del database è un ulteriore elemento di innovazione.

 

Machine learning: più valore ai tuoi dati

 

 

Il Machine Learning (ML) rivoluziona, infatti, la preparazione dei dati: i modelli di Machine Learning sono in grado di elaborare set di dati a velocità estremamente elevate, su raggi d’azione particolarmente ampi e identificando schemi ricorrenti, anomalie e relazioni che sfuggono all’occhio umano. Possono scaturirne suggerimenti per ulteriori analisi, ugualmente veloci e automatizzate.

I modelli di Machine Learning possono ovviamente essere addestrati in modo da tener conto di parametri specifici che ci interessano; ne è un esempio l’elaborazione del linguaggio naturale (NLP, Natural Language Processing), che è in grado di comprendere il linguaggio umano e di migliorare con l’uso (pensiamo ad applicazioni come il servizio clienti aziendale).

Con il suo prodotto Amazon Sagemaker, AWS permette di costruire, addestrare e implementare modelli di Machine Learning per qualsiasi caso d’uso con infrastrutture, strumenti e flussi di lavoro completamente gestiti. In questo modo un numero più ampio di persone in azienda può innovare con il ML avvalendosi di molteplici strumenti: ambienti di sviluppo integrati per i data scientist e interfacce visive senza codice per gli analisti aziendali. I dati strutturati e non strutturati vengono preparati su vasta scala, risultati che prima richiedevano ore per essere ottenuti ora vengono resi disponibili in pochi minuti, aumentando la produttività del team fino a dieci volte. Sagemaker permette anche di ottenere oltre 100 miliardi di previsioni al mese e di abbattere del 54% i costi di proprietà.

Tra i vantaggi misurati da AWS in un sondaggio tra i clienti nel 2020 c’è la capacità di costruire modelli di ML sicuri e affidabili in modo più veloce: siccome oggi si usano molti modelli ML per portare previsioni in tempo reale alle applicazioni business e agli utenti finali, è fondamentale essere sicuri che queste previsioni siano sempre a disposizione e vengano prodotte velocemente. Riduzione dei costi, abbondanza di opzioni diverse nella costruzione di modelli ML, compliance e supporto nella creazione di dataset a partire dai dati sono gli altri vantaggi citati.

 

Cosa fa DuneD per i suoi clienti in qualità di Partner AWS

 

 

AWS mette a disposizione un’offerta completa di servizi e strumenti dedicati allo sviluppo serverless, grazie ai quali si può demandare ad AWS il provisioning e lo scaling delle risorse, la manutenzione e l’aggiornamento dei sistemi operativi e molte altre attività di gestione.

Come partner di AWS, DuneD ti accompagna nel percorso per diventare data-driven company, anche con progetti di architetture a Microservizi, serverless e event-driven. Partiamo dall’analisi delle architetture e degli applicativi legacy per elaborare una strategia di re-factoring delle parti che effettivamente possono essere trasformate in un’architettura a Microservizi. L’obiettivo ultimo è rendere più efficace l’offerta di servizi e prodotti al tuo cliente finale, riducendo i tuoi costi di sviluppo e test e il time-to-market.

Siamo specialisti dei Data Product, della Business Intelligence (BI) avanzata e degli Embedded Analytics, che implementiamo nella tua azienda usando Amazon QuickSight e che allargano il numero di utenti aziendali in grado di estrarre conoscenza dai dati e condividerli grazie a dashboard di facile comprensione.

Affidarsi a un partner come DuneD è importante non solo per l’esperienza che ti portiamo con i nostri data scientist e con la nostra consulenza su come condurre il tuo progetto di modernizzazione IT, ma perché le nostre soluzioni poggiano su un solido know-how tecnologico come quello di AWS, affidabile e sicuro anche nella gestione dei server e dei dati.

Le Cloud Region AWS europee e italiane rappresentano in tal senso un’ulteriore garanzia. Un partner come DuneD è la tua garanzia per un progetto data-driven: siamo in grado di accompagnarti dalla preparazione del dato con la creazione del Data Lake fino alla fase di analisi e produzione di Actionable Insights, ovvero conoscenza solida su cui puoi basare le tue decisioni strategiche.

 


 

Spunti di riflessione…

 

 

Podcast interessanti…

 

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>