Per iniziare, fai clic su accetta di seguito per visualizzare il pannello di gestione dei cookie. Quindi, tocca o fai clic sul pulsante Personalizzazione per attivare la funzione chat, quindi su Salva.
Grazie per averci contattati. Completa questo modulo e fai clic su Avvia chat.
La prof.ssa Sally Eaves riveste il ruolo di presidentessa di Cyber Trust e quello di Senior Policy Advisor per la Global Foundation of Cyber Studies and Research. Descritta come personaggio leader nel settore della tecnologia etica, la Prof.ssa Eeaves è la prima destinataria del riconoscimento Frontier Technology and Social Impact Award, conferito presso le Nazioni Unite. Con una formazione come Chief Technology Officer, la prof.ssa Eaves attualmente riveste il ruolo di docente in tecnologie avanzate e quello di Global Strategic Advisor per le tecnologie emergenti. Sally ha anche ricevuto riconoscimenti come autrice internazionale, MC, keynote speaker e Tought Leader nel settore della trasformazione digitale (AI, 5G, cloud, blockchain, sicurezza informatica, governance, IoT, scienza dei dati), unitamente alle sue competenze nel settore culturale, delle competenze professionali, in ambito DEI, in quello della sostenibilità e dell’impatto sociale.
Sally svolge attività di educatrice e mentoring per supportare la prossima generazione di talenti tecnologici e ha fondato Aspirational Futures, un’organizzazione che promuove inclusività, diversità ed uguaglianza nel settore dell’educazione e della tecnologia, anche attraverso il suo ultimo libro, ”Tech For Good”, che sarà pubblicato a breve. Sally vanta una consolidata e riconosciuta reputazione come influencer globale nel settore tecnologico, guidando iniziative come Onalytica, e inclusa tra le prime 10 personalità mondiali in molteplici discipline, che spaziano dall’intelligenza artificiale al 5G, fino alla sostenibilità e oltre.
I dati sono una risorsa essenziale ai tempi del "restiamo a casa"
In un periodo di così grandi incertezze a livello globale, le modalità con cui siamo soliti lavorare, studiare e vivere sono profondamente cambiate, sia in termini di velocità che di dimensioni. Essere in grado di gestire l'imprevisto è nel DNA di un data center, la cui capacità di interagire con ciò che è "invisibile" è considerata tra i "servizi essenziali" nella maggiore parte dei paesi nel mondo. Il Coronavirus ha impattato sulla business continuity di intere economie, colpendo organizzazioni di qualsiasi dimensione e/o settore. Per gestire il cambiamento e le sfide connesse, nasce l'imperativo strategico e operativo per i data center di riuscire a ottimizzare i servizi esistenti e rispondere alle neonate esigenze. La massiccia crescita della domanda è dovuta principalmente a due fattori chiave. Il primo è il bisogno di capacità di elaborazione, necessario a sostenere l'adozione su larga scala del lavoro da casa da parte di così tante istituzioni e aziende. L'infrastruttura digitale non ha mai avuto un'occasione migliore di questa per dimostrare la sua importanza all'economia mondiale. Si assiste a un'impennata del bisogno di capacità dei dati, conseguente all'enorme assorbimento originato dall'utilizzo di applicazioni digitali dedicate a videochiamate, telesanità, e-commerce ed e-learning - assorbimento che si somma a quello connesso all'intrattenimento, a sua volta accresciuto in proporzione al maggior tempo trascorso in casa.
La nuova domanda di throughput dei data center sta infrangendo qualsiasi record
La recente pubblicazione1 di Kingston sulla crescita dei data center ha evidenziato un insaziabile bisogno di dati, reso oggi ancora più attivo dalla progressiva affermazione di 5G, IoT ed Edge Computing. E dal momento che a questo deve sommarsi anche tutto il contesto del Coronavirus, accade che l'11 marzo 2020 il provider di servizi di data center Deutsche Commercial Internet Exchange stabilisce l'incredibile record mondiale2 nella città di Francoforte – raggiungendo un throughput di dati superiore a 9,1 Terabit al secondo. O, ancora, che Vodafone registra un aumento del 50% del traffico dati3 in alcuni mercati, con significativi picchi di utilizzo da parte degli Internet Service Provider. E, per venire in contro alle esigenze di lavoro, studio e intrattenimento, BT rimuove i limiti di dati per la boradband residenziale4. Ma, mentre il controllo della "salute di Internet" riporta un trend in crescita delle interruzioni5, va anche detto che tale fenomeno non ha comunque raggiunto i livelli che ci si sarebbe aspettato in considerazione dell'incremento di traffico assolutamente senza precedenti che si è verificato. Non solo. A dispetto della crescita attuale e dell'incremento annuo stimato per il futuro dei carichi di lavoro e del traffico, è importante notare che la domanda energetica da parte dei data center a livello globale è prevista in calo, come rivelato dall'IEA (International Energy Agency)6. Ciò è frutto delle pratiche di consolidamento e di efficientamento, in particolar modo dei sistemi di raffreddamento, oltre che del passaggio da parte di nuovi data center HyperScale a fonti di energia rinnovabili al 100%.
L'elaborazione ad alte prestazioni sostiene la ricerca contro il virus
Il secondo fattore chiave che traina la crescita della domanda è il bisogno di potenza e velocità di elaborazione, punto sul quale l'HPC (High Performance Computing) assume massima importanza. La ricerca di vaccini e terapie generano gruppi di dati di enormi dimensioni. Gli istituti di ricerca e le società farmaceutiche stanno iniziando a fare largo uso di sistemi HPC per realizzare simulazioni ed elaborazioni di dati in aree quali l'epidemiologia e la bioinformatica. Ciò consente di ottenere enormi risparmi di tempo nello sviluppo di nuovi farmaci.
Il Coronavirus High-Performance Computing Consortium7 sta riunendo i leader nel settore tecnologico, amministrativo e accademico, mettendo a loro disposizione 330 petaflop di velocità di elaborazione, 775.000 CPU e 34.000 GPU. Per sostenere lo sforzo volto a conoscere meglio il virus e creare soluzioni che possano dar vita a un vaccino, oggi è possibile eseguire 330 trilioni di operazioni in virgola mobile al secondo. È del tutto evidente inoltre che ciò rappresenti uno straordinario esempio di collaborazione, che - prevalendo sulla competizione - impegna giganti quali IBM, Amazon, Microsoft, HPE e Google.
Del resto, è ben noto che i data center sono le "centrali" del cloud computing e al tempo stesso anche i connettori di internet, dovendo far fronte al triplice bisogno di maggiore velocità, maggiore flessibilità e disponibilità ottimale. Gli operatori hanno agito rapidamente per assicurare la resilienza necessaria a prevenire i rischi di downtime e di interruzione di servizio che minacciavano i loro diversi gruppi di utenti. E, considerando che il costo medio del downtime IT stimato da Gartner si aggira sui 5.600 USD al minuto, non sorprende che questa sia una fra le principali preoccupazioni dei responsabili IT. Così come i consumatori finali hanno fatto scorta di generi alimentari e di articoli per la casa - come dimostra il caso emblematico dell'approvvigionamento di carta igienica8 verificatosi in ogni parte del mondo - allo stesso modo i clienti dei data center hanno puntato ad assicurarsi capacità di storage e ampiezza di banda aggiuntive, al duplice scopo di soddisfare la domanda in rapida crescita e proteggere la continuità operativa.
Gestire virtualmente il "virtuale"
La trasparenza ha giocato un ruolo chiave nel ridare e rinsaldare la fiducia, ed è per questo che gli operatori di data center hanno dovuto condividere pubblicamente i criteri adottati per gestire e, in caso di bisogno, dare priorità a nuovi servizi cloud finalizzati a salvaguardare operazioni cruciali9. Va inoltre registrato l'importante supporto assicurato ai clienti esistenti e testimoniato dal fatto che la maggior parte dei provider ha introdotto misure urgenti, quali la sospensione dei costi per il sovra-consumo di banda. Per molte PMI, che hanno sperimentato impennate del tutto impreviste e imprevedibili di throughput e traffico di rete, la possibilità di incrementare i carichi di sistema e di rete ben oltre quanto previsto dai rispettivi piani di consumo, senza penalità e fino al massimo throughput consentito dalle loro porte, ha permesso al loro business di restare in piedi durante questo periodo così complesso.
Ma assicurare la business continuity dei clienti e dei partner ha richiesto a monte la necessità di assicurare la business continuity degli stessi data center, il che implica anzitutto la sicurezza del personale, dei partner e dei fornitori. Particolare importanza ha assunto al riguardo il livello di conoscenza condiviso all'interno del settore, specialmente con riferimento alle procedure nel campo della sanità, della sicurezza e del benessere, oltre che nelle problematiche relative alla catena di fornitura e nell'HR. Ovviamente è stato necessario anche un canale a doppio senso con le amministrazioni. Ad esempio, nel Regno Unito, è stato istituito il DCMS Data Infrastructure Resilience Team per assicurare che i data center fossero adeguatamente considerati nell'assunzione di decisioni chiave.
Aspetto più rilevante è che ciò si è tradotto in una riduzione delle vie di contagio e nella gestione della realtà generatasi con il lockdown dei siti. È stato infatti necessario limitare l'accesso alle strutture e introdurre programmi di contingentamento, oltre all'osservanza di pratiche di distanziamento sociale. Senza dimenticare i connessi problemi di disponibilità, dovuti in primo luogo alla riduzione del personale, oltre che alla possibile mancanza di figure chiave conseguente alla malattia o all'auto-isolamento.
Le predisposizione di procedure dettagliate relative alla funzioni vitali della struttura si rivelano particolarmente importanti per attenuare i rischi e rendono le capacità di gestione da remoto cruciali. Si accede progressivamente a livelli di controllo remoto e simultaneo sempre più elevati, grazie all'integrazione di tecnologia sensoristica, servizi di supporto per la risoluzione dei problemi come "Smart Hands"10 e monitoraggio dei sistemi in aree prestazionali chiave, quali la distribuzione energetica e la gestione della temperatura. E ciò porta a livelli più evoluti di analisi dei dati e capacità predittiva rispetto al verificarsi di potenziali incidenti. Oltre ad aver spinto i data center a rispondere al maggior bisogno di capacità, velocità, affidabilità e potenza di elaborazione, il Coronavirus ha anche reso evidente quanta parte di un data center può essere efficacemente gestita da remoto. Non solo. Il ruolo dei data center ha oramai chiaramente conquistato il centro della scena in tutti i settori, dal lavoro, allo studio, dalla comunicazione all'intrattenimento - senza dimenticare l'importanza avuta per favorire la comprensione del virus e lo sviluppo di terapie medicali.
#KingstonIsWithYou
Chiedi a un esperto
Kingston offre un'opinione indipendente circa l'adeguatezza delle configurazioni in uso, o di previsto uso, adottate dalla vostra organizzazione.
SSD per impieghi aziendali
Possiamo esaminare con voi i vantaggi che i drive SSD potrebbero offrire al vostro specifico ambiente di storage. Inoltre, saremo lieti di consigliarvi la tipologia di SSD più adatta a supportare i vostri carichi di lavoro che richiedono un equilibrio ottimale delle prestazioni IOPS in lettura e scrittura casuale.
Possiamo esaminare con voi i vantaggi offerti da una configurazione del server in grado di ottimizzare capacità e prestazioni. Gli esperti di configurazioni Kingston metteranno a vostra disposizione tutta l'esperienza e le risorse che occorrono per sostenervi nel processo di aggiornamento della memoria per server.
Durante le riprese, postproduzione, codifica e distribuzione nei data center, SSD e RAM sono cruciali per lo streaming video e audio in ambito OTT Media e intrattenimento (M&E).
Kingston ha contribuito all'ottimizzazione dello storage di Simply Hosting nei loro data center, per garantire una continuità operativa sempre migliore.
Segui il dibattito fra gli esperti di settore che analizzano i modi in cui i produttori di tecnologia come Kingston riescono ad agevolare la loro sostenibilità e crescita aziendale.
Gli esperti di settore esaminano i temi della sostenibilità e dell'ottimizzazione in campo IT e individuano i pilastri che sorreggono le partnership tecnologiche.
Il passaggio alla tecnologia NVMe richiede una valutazione completa dell’intero stack da parte degli architetti IT, al fine di garantire l’esistenza della ridondanza su ogni layer dello stack.
L'eBook esplora con il contributo di esperti di settore i benefici offerti dall'IA, i motivi per cui alimenta il consumo di dati e le azioni che la vostra organizzazione deve intraprendere per cogliere le opportunità offerte.
Testare gli SSD per determinarne la resistenza effettiva, le alterazioni in termini di latenza e IOPS, con scritture sequenziali, casuali e in vari scenari di lettura e scrittura.
Evitate di scegliere il tipo di SSD sbagliato per il vostro server. Una scelta sbagliata comporta costi di proprietà più elevati. Imparate a scegliere il tipo di SSD giusto.
Quali innovazioni tecnologiche e tendenze ha in serbo il 2021? Cosa prevedono che accada nel prossimo futuro i nostri membri del KingstonCognate e gli esperti di settore?
Scoprite come Hosteur è riuscita a conseguire una rapida crescita e un miglioramento dei propri SLA sfruttando i servizi e i prodotti per impieghi aziendali di Kingston.
I centri dati dovrebbero utilizzare SSD per server. Tali dispositivi offrono numerosi vantaggi rispetto ai drive per client. Inoltre, i costi sono scesi.
Finora la tecnologia SDS non è stata all’altezza delle aspettative, ma dato che la tecnologia NVMe è diventata più affidabile, l’hardware commerciale è ora in grado di soddisfare le esigenze.
La scelta dell’SSD adatto per i vostri server svolge un ruolo importante, in quanto gli SSD per server sono ottimizzati per operare con livelli di latenza prevedibili, mentre gli SSD client (per desktop e laptop) non lo sono. Queste differenze consentono di ottenere tempi di utilizzo maggiori e minore lag nell’uso di applicazioni e servizi critici.
Kingston ha fornito memorie compatibili in grado di sostenere gli obiettivi di prestazioni prefissi da i3D.net per i propri server, estendendo così la vita operativa dell'hardware esistente.
Grazie a livelli di servizio, qualità, scalabilità e flessibilità delle soluzioni economicamente vantaggiose di Kingston, Aruba ha registrato un incremento della qualità del servizio offerto ai propri clienti.
Kingston utilizza controller basati su tecnologia LSI® SandForce® in alcune delle sue unità SSD che impiegano tecnologie di tipo proprietario per eseguire la Garbage Collection.
Il calcolo ad alte prestazioni (HPC) può richiedere enormi quantità di dati. Le unità SSD consumano una quantità minima di alimentazione rispetto ai dischi rotanti.
Le unità a stato solido (SSD) di Kingston dispongono di funzionalità quali ECC e Spare Blocks che impediscono ai dati di essere scritti su blocchi danneggiati.
I test rappresentano un caposaldo del nostro impegno costante nel fornire i moduli di memoria più affidabili presenti sul mercato.
Effettuiamo test rigorosi su ogni singolo prodotto e in ogni singola fase della produzione. I nostri test riescono a garantire il controllo della qualità durante l'intero processo produttivo.
Le memorie DDR4 utilizzano fino al 40% di energia in meno rispetto alle DDR3. Consentono un incremento fino al 50% delle prestazioni rispetto alle memorie DDR3.