Server in un data center

Le sfide per i Data Center al tempo del Coronavirus

#KingstonCognate presenta la prof.ssa Sally Eaves

Foto della Prof.ssa Sally Eaves

La prof.ssa Sally Eaves riveste il ruolo di presidentessa di Cyber Trust e quello di Senior Policy Advisor per la Global Foundation of Cyber Studies and Research. Descritta come personaggio leader nel settore della tecnologia etica, la Prof.ssa Eeaves è la prima destinataria del riconoscimento Frontier Technology and Social Impact Award, conferito presso le Nazioni Unite. Con una formazione come Chief Technology Officer, la prof.ssa Eaves attualmente riveste il ruolo di docente in tecnologie avanzate e quello di Global Strategic Advisor per le tecnologie emergenti. Sally ha anche ricevuto riconoscimenti come autrice internazionale, MC, keynote speaker e Tought Leader nel settore della trasformazione digitale (AI, 5G, cloud, blockchain, sicurezza informatica, governance, IoT, scienza dei dati), unitamente alle sue competenze nel settore culturale, delle competenze professionali, in ambito DEI, in quello della sostenibilità e dell’impatto sociale.

Sally svolge attività di educatrice e mentoring per supportare la prossima generazione di talenti tecnologici e ha fondato Aspirational Futures, un’organizzazione che promuove inclusività, diversità ed uguaglianza nel settore dell’educazione e della tecnologia, anche attraverso il suo ultimo libro, ”Tech For Good”, che sarà pubblicato a breve. Sally vanta una consolidata e riconosciuta reputazione come influencer globale nel settore tecnologico, guidando iniziative come Onalytica, e inclusa tra le prime 10 personalità mondiali in molteplici discipline, che spaziano dall’intelligenza artificiale al 5G, fino alla sostenibilità e oltre.

I dati sono una risorsa essenziale ai tempi del "restiamo a casa"

SSD che viene installato in un server

In un periodo di così grandi incertezze a livello globale, le modalità con cui siamo soliti lavorare, studiare e vivere sono profondamente cambiate, sia in termini di velocità che di dimensioni. Essere in grado di gestire l'imprevisto è nel DNA di un data center, la cui capacità di interagire con ciò che è "invisibile" è considerata tra i "servizi essenziali" nella maggiore parte dei paesi nel mondo. Il Coronavirus ha impattato sulla business continuity di intere economie, colpendo organizzazioni di qualsiasi dimensione e/o settore. Per gestire il cambiamento e le sfide connesse, nasce l'imperativo strategico e operativo per i data center di riuscire a ottimizzare i servizi esistenti e rispondere alle neonate esigenze. La massiccia crescita della domanda è dovuta principalmente a due fattori chiave. Il primo è il bisogno di capacità di elaborazione, necessario a sostenere l'adozione su larga scala del lavoro da casa da parte di così tante istituzioni e aziende. L'infrastruttura digitale non ha mai avuto un'occasione migliore di questa per dimostrare la sua importanza all'economia mondiale. Si assiste a un'impennata del bisogno di capacità dei dati, conseguente all'enorme assorbimento originato dall'utilizzo di applicazioni digitali dedicate a videochiamate, telesanità, e-commerce ed e-learning - assorbimento che si somma a quello connesso all'intrattenimento, a sua volta accresciuto in proporzione al maggior tempo trascorso in casa.

Uomo accanto ai rack per server con un PC laptop

La nuova domanda di throughput dei data center sta infrangendo qualsiasi record

La recente pubblicazione1 di Kingston sulla crescita dei data center ha evidenziato un insaziabile bisogno di dati, reso oggi ancora più attivo dalla progressiva affermazione di 5G, IoT ed Edge Computing. E dal momento che a questo deve sommarsi anche tutto il contesto del Coronavirus, accade che l'11 marzo 2020 il provider di servizi di data center Deutsche Commercial Internet Exchange stabilisce l'incredibile record mondiale2 nella città di Francoforte – raggiungendo un throughput di dati superiore a 9,1 Terabit al secondo. O, ancora, che Vodafone registra un aumento del 50% del traffico dati3 in alcuni mercati, con significativi picchi di utilizzo da parte degli Internet Service Provider. E, per venire in contro alle esigenze di lavoro, studio e intrattenimento, BT rimuove i limiti di dati per la boradband residenziale4. Ma, mentre il controllo della "salute di Internet" riporta un trend in crescita delle interruzioni5, va anche detto che tale fenomeno non ha comunque raggiunto i livelli che ci si sarebbe aspettato in considerazione dell'incremento di traffico assolutamente senza precedenti che si è verificato. Non solo. A dispetto della crescita attuale e dell'incremento annuo stimato per il futuro dei carichi di lavoro e del traffico, è importante notare che la domanda energetica da parte dei data center a livello globale è prevista in calo, come rivelato dall'IEA (International Energy Agency)6. Ciò è frutto delle pratiche di consolidamento e di efficientamento, in particolar modo dei sistemi di raffreddamento, oltre che del passaggio da parte di nuovi data center HyperScale a fonti di energia rinnovabili al 100%.

L'elaborazione ad alte prestazioni sostiene la ricerca contro il virus

Drive bay di server in un rack con LED di colore verde

Il secondo fattore chiave che traina la crescita della domanda è il bisogno di potenza e velocità di elaborazione, punto sul quale l'HPC (High Performance Computing) assume massima importanza. La ricerca di vaccini e terapie generano gruppi di dati di enormi dimensioni. Gli istituti di ricerca e le società farmaceutiche stanno iniziando a fare largo uso di sistemi HPC per realizzare simulazioni ed elaborazioni di dati in aree quali l'epidemiologia e la bioinformatica. Ciò consente di ottenere enormi risparmi di tempo nello sviluppo di nuovi farmaci.

Il Coronavirus High-Performance Computing Consortium7 sta riunendo i leader nel settore tecnologico, amministrativo e accademico, mettendo a loro disposizione 330 petaflop di velocità di elaborazione, 775.000 CPU e 34.000 GPU. Per sostenere lo sforzo volto a conoscere meglio il virus e creare soluzioni che possano dar vita a un vaccino, oggi è possibile eseguire 330 trilioni di operazioni in virgola mobile al secondo. È del tutto evidente inoltre che ciò rappresenti uno straordinario esempio di collaborazione, che - prevalendo sulla competizione - impegna giganti quali IBM, Amazon, Microsoft, HPE e Google.

Del resto, è ben noto che i data center sono le "centrali" del cloud computing e al tempo stesso anche i connettori di internet, dovendo far fronte al triplice bisogno di maggiore velocità, maggiore flessibilità e disponibilità ottimale. Gli operatori hanno agito rapidamente per assicurare la resilienza necessaria a prevenire i rischi di downtime e di interruzione di servizio che minacciavano i loro diversi gruppi di utenti. E, considerando che il costo medio del downtime IT stimato da Gartner si aggira sui 5.600 USD al minuto, non sorprende che questa sia una fra le principali preoccupazioni dei responsabili IT. Così come i consumatori finali hanno fatto scorta di generi alimentari e di articoli per la casa - come dimostra il caso emblematico dell'approvvigionamento di carta igienica8 verificatosi in ogni parte del mondo - allo stesso modo i clienti dei data center hanno puntato ad assicurarsi capacità di storage e ampiezza di banda aggiuntive, al duplice scopo di soddisfare la domanda in rapida crescita e proteggere la continuità operativa.

Gestire virtualmente il "virtuale"

Panorama urbano con un tratto luminoso che disegna un microchip

La trasparenza ha giocato un ruolo chiave nel ridare e rinsaldare la fiducia, ed è per questo che gli operatori di data center hanno dovuto condividere pubblicamente i criteri adottati per gestire e, in caso di bisogno, dare priorità a nuovi servizi cloud finalizzati a salvaguardare operazioni cruciali9. Va inoltre registrato l'importante supporto assicurato ai clienti esistenti e testimoniato dal fatto che la maggior parte dei provider ha introdotto misure urgenti, quali la sospensione dei costi per il sovra-consumo di banda. Per molte PMI, che hanno sperimentato impennate del tutto impreviste e imprevedibili di throughput e traffico di rete, la possibilità di incrementare i carichi di sistema e di rete ben oltre quanto previsto dai rispettivi piani di consumo, senza penalità e fino al massimo throughput consentito dalle loro porte, ha permesso al loro business di restare in piedi durante questo periodo così complesso.

Ma assicurare la business continuity dei clienti e dei partner ha richiesto a monte la necessità di assicurare la business continuity degli stessi data center, il che implica anzitutto la sicurezza del personale, dei partner e dei fornitori. Particolare importanza ha assunto al riguardo il livello di conoscenza condiviso all'interno del settore, specialmente con riferimento alle procedure nel campo della sanità, della sicurezza e del benessere, oltre che nelle problematiche relative alla catena di fornitura e nell'HR. Ovviamente è stato necessario anche un canale a doppio senso con le amministrazioni. Ad esempio, nel Regno Unito, è stato istituito il DCMS Data Infrastructure Resilience Team per assicurare che i data center fossero adeguatamente considerati nell'assunzione di decisioni chiave.

Aspetto più rilevante è che ciò si è tradotto in una riduzione delle vie di contagio e nella gestione della realtà generatasi con il lockdown dei siti. È stato infatti necessario limitare l'accesso alle strutture e introdurre programmi di contingentamento, oltre all'osservanza di pratiche di distanziamento sociale. Senza dimenticare i connessi problemi di disponibilità, dovuti in primo luogo alla riduzione del personale, oltre che alla possibile mancanza di figure chiave conseguente alla malattia o all'auto-isolamento.

Le predisposizione di procedure dettagliate relative alla funzioni vitali della struttura si rivelano particolarmente importanti per attenuare i rischi e rendono le capacità di gestione da remoto cruciali. Si accede progressivamente a livelli di controllo remoto e simultaneo sempre più elevati, grazie all'integrazione di tecnologia sensoristica, servizi di supporto per la risoluzione dei problemi come "Smart Hands"10 e monitoraggio dei sistemi in aree prestazionali chiave, quali la distribuzione energetica e la gestione della temperatura. E ciò porta a livelli più evoluti di analisi dei dati e capacità predittiva rispetto al verificarsi di potenziali incidenti. Oltre ad aver spinto i data center a rispondere al maggior bisogno di capacità, velocità, affidabilità e potenza di elaborazione, il Coronavirus ha anche reso evidente quanta parte di un data center può essere efficacemente gestita da remoto. Non solo. Il ruolo dei data center ha oramai chiaramente conquistato il centro della scena in tutti i settori, dal lavoro, allo studio, dalla comunicazione all'intrattenimento - senza dimenticare l'importanza avuta per favorire la comprensione del virus e lo sviluppo di terapie medicali.

#KingstonIsWithYou

Chiedi a un esperto

Kingston offre un'opinione indipendente circa l'adeguatezza delle configurazioni in uso, o di previsto uso, adottate dalla vostra organizzazione.

SSD per impieghi aziendali

Possiamo esaminare con voi i vantaggi che i drive SSD potrebbero offrire al vostro specifico ambiente di storage. Inoltre, saremo lieti di consigliarvi la tipologia di SSD più adatta a supportare i vostri carichi di lavoro che richiedono un equilibrio ottimale delle prestazioni IOPS in lettura e scrittura casuale.

Chiedete a un esperto di SSD

Memoria per server

Possiamo esaminare con voi i vantaggi offerti da una configurazione del server in grado di ottimizzare capacità e prestazioni. Gli esperti di configurazioni Kingston metteranno a vostra disposizione tutta l'esperienza e le risorse che occorrono per sostenervi nel processo di aggiornamento della memoria per server.

Chiedete a un esperto di memorie

Prodotti correlati