Um zu beginnen, klicken Sie unten auf Akzeptieren, um das Cookie-Verwaltungsfeld aufzurufen. Tippen oder klicken Sie anschließend auf die Schaltfläche Personalisierung, um die Chatfunktion zu aktivieren, und klicken Sie dann auf Speichern.
Prof. Sally Eaves ist Vorsitzende von Cyber Trust und leitende politische Beraterin der Global Foundation of Cyber Studies and Research. Sie gilt als „Vorreiterin für ethische Technologie“ und ist die erste Preisträgerin des Frontier Technology and Social Impact Awards, verliehen von den Vereinten Nationen. Als Chief Technology Officer und nun auch Professorin für Advanced Technologies und globale Strategieberaterin für neue Technologien ist Sally als internationale Autorin, Moderatorin, Keynote-Speakerin und Vordenkerin für digitale Transformation (KI, 5G, Cloud, Blockchain, Cybersicherheit, Governance, IoT, Data Science) sowie Kultur, Kompetenzen, DEI, Nachhaltigkeit und soziale Auswirkungen anerkannt und ausgezeichnet.
Sie hat Aspirational Futures gegründet, um Inklusion, Vielfalt und Gleichberechtigung in den Bereichen Bildung und Technologie zu fördern. Ihr neuestes Buch "Tech For Good" wird in Kürze erscheinen. Sally wird von führenden Gremien wie Onalytica regelmäßig für ihren globalen Einfluss im Technologiebereich gewürdigt und ist in den Top 10 der Welt in verschiedenen Disziplinen von KI über 5G bis hin zu Nachhaltigkeit und mehr vertreten.
Daten sind jetzt während des „Lockdown“ systemrelevant
In dieser beispiellosen Zeit globaler Unsicherheit haben sich die Arbeits-, Lern- und Lebensweisen sowohl in Geschwindigkeit als auch im Ausmaß verändert. Auf das Unerwartete vorbereitet zu sein liegt der Rechenzentrumsindustrie im Blut, deren „unsichtbarer“ Betrieb inzwischen in den meisten Ländern der Welt unter die Definition der „systemrelevanten Dienste“ fallen. Das Coronavirus hat sich auf Unternehmen aller Größen und Branchen ausgewirkt und die Geschäftskontinuität in ganzen Volkswirtschaften beeinträchtigt. Durch die Veränderung und die neuen Herausforderungen wird die Optimierung vorhandener Dienste bei gleichzeitiger Anpassung an neue Anforderungen zu einer strategischen und operativen Notwendigkeit für Rechenzentren. Es gibt zwei Schlüsselfaktoren, die den massiven Anstieg des Bedarfs katalysieren. Erstens der Bedarf an Computerkapazität, der durch den in großem Umfang stattfindenden Wechsel vieler Unternehmen und Institutionen zur Arbeit im Home Office entsteht. Die digitale Infrastruktur war noch nie so wichtig für die Weltwirtschaft. Der damit verbundene Anstieg bei der Nutzung digitaler Anwendungen in den Bereichen Videokonferenzen, Telemedizin, E-Commerce und E-Learning sowie bei der Unterhaltung, da wir alle mehr Zeit in geschlossenen Räumen verbringen, führt zu einem sprunghaften Anstieg des Bedarfs bei den Datenkapazitäten.
Der gestiegene Bedarf beim Durchsatz von Rechenzentren bricht neue Rekorde
Die kürzlich bei Kingston erschienene Veröffentlichung{{Footnote.N58295}} über das Wachstum von Rechenzentren unterstrich unseren „unersättlichen“ Bedarf an Daten, der durch das Aufkommen von 5G-, IoT- und Edge-Computing immer größer wird. Im Kontext von Coronavirus: Am 11. März 2020 stellte der Rechenzentrumsdienstleister Deutsche Commercial Internet Exchange in Frankfurt einen neuen Weltrekord{{Footnote.N58296}} auf – mit einem Datendurchsatz von über 9,1 Terabit pro Sekunde. Vodafone hat einen 50%igen Anstieg des Datenverkehrs{{Footnote.N58297}} in einigen Märkten mit erheblichen Nutzungsspitzen bei den Internet-Serviceanbietern gemeldet. BT hat die Datenlimits{{Footnote.N58298}} für private Breitbandverbindungen aufgehoben, um den angestiegenen Bedarf bei Arbeit, Studium und Freizeit zu unterstützen. Aber während die Überwachung unserer „Internet-Gewohnheiten“ einen Aufwärtstrend bei der mangelnden Verfügbarkeit{{Footnote.N58299}} widerspiegelt, hat diese kein Niveau erreicht, das dem beispiellosen Anstieg des Datenverkehrs entspricht. Trotz des derzeitigen Anstiegs und der für die Zukunft prognostizierten jährlichen Zunahme des Datenverkehrsaufkommens und der Workloads in den Rechenzentren ist es wichtig, darauf hinzuweisen, dass der weltweite Energiebedarf von Rechenzentren den Prognosen zufolge abnehmen wird, wie von der Internationalen Energieagentur (IEA{{Footnote.N58300}}) beobachtet. Dies ist sowohl auf die Konsolidierung als auch auf effizientere Praktiken zurückzuführen, insbesondere auf Kühlsysteme, und darauf, dass einige neue hyperskalige Rechenzentren zu 100 Prozent mit erneuerbaren Energien betrieben werden sollen.
HPC- oder Hochleistungs-Computing treibt die Forschung voran, die das Virus bekämpft
Der zweite Hauptfaktor ist der Bedarf an Geschwindigkeit und Rechenleistung, und hier kommt HPC (High Performance Computing) ins Spiel. Die Impfstoff- und Behandlungsforschung erzeugt große Datensätze. Forschungseinrichtungen und Pharmaunternehmen setzen HPC-Systeme erstmals in großem Maßstab ein, um Datensimulationen und Berechnungen in Bereichen wie Epidemiologie und Bioinformatik durchzuführen. Dies kann dazu beitragen, die Entwicklungszeiten für neue Medikamente drastisch zu verkürzen.
Das Coronavirus High-Performance Computing Consortium{{Footnote.N58301}} bringt führende Technologie-, Regierungs- und Hochschulvertreter zusammen und stellt über 330 Petaflops an Rechengeschwindigkeit, 775.000 CPU-Kerne und 34.000 GPUs zur Verfügung. In dem Bestreben, das Virus besser zu verstehen und Behandlungsmöglichkeiten zu entwickeln, die für potenzielle Impfstoffe eingesetzt werden können, können jetzt unglaubliche 330 Billionen Gleitkomma-Operationen pro Sekunde durchgeführt werden. Dies ist auch ein großartiges Beispiel dafür, dass die Zusammenarbeit von Mitwirkenden wie IBM, Amazon, Microsoft, HPE und Google Vorrang vor der gegenseitigen Konkurrenz hat.
Obwohl sie oft im Verborgenen arbeiten, sind die Rechenzentren sowohl die Kraftwerke des Cloud-Computing als auch die Konnektoren des Internets und erfüllen den dreiteiligen Bedarf an mehr Geschwindigkeit, mehr Flexibilität und optimaler Verfügbarkeit. Die Betreiber haben sich schnell daran gemacht, die Resilienz zu erhöhen, um das Risiko von Ausfallzeiten und Serviceunterbrechungen für ihre verschiedenen Benutzergruppen herabzusetzen. Da Gartner die durchschnittlichen Kosten für IT-Ausfallzeiten auf etwa 5.600 Dollar pro Minute schätzt, ist es kein Wunder, dass es sich hier um eine große Sorge für das IT-Management in IT-Unternehmen handelt. In der gleichen Weise, wie Einzelhandelskunden Lebensmittel und Haushaltsgegenstände zu horten suchten, was durch die weltweit zu beobachtende Bevorratung{{Footnote.N58302}} mit Toilettenpapierrollen veranschaulicht wird, suchten Rechenzentrumskunden nach zusätzlicher Kapazität und Bandbreite, um sowohl den derzeit rasch wachsenden Bedarf zu decken als auch die Geschäftskontinuität zu schützen.
„Virtuell“ auch virtuell verwalten
Transparenz war entscheidend, um Kunden zu beruhigen und ihr Vertrauen zu fördern, wobei die Betreiber von Rechenzentren die Kriterien für die Verwaltung und gegebenenfalls die Priorisierung neuer Kapazitäten für Cloud-Dienste zur Sicherung kritischer Unternehmungen öffentlich bekannt gemacht haben{{Footnote.N58303}}. Es gab auch eine erhebliche Unterstützung für bestehende Kunden, wobei die meisten Anbieter kurzfristige Maßnahmen wie die Aussetzung der über die Bandbreite berechneten Nutzungskosten einführten. Für viele KMU-Kunden, bei denen ein erhöhter Bedarf an Netzwerkverkehr und -durchsatz aufgetreten ist, der weder erwartet noch geplant war, kann die Fähigkeit, die Systemlasten und Netzwerke über bestehende CDR hinaus und bis zum maximalen Durchsatz ihrer Ports ohne Strafe zu erhöhen, kann in diesen turbulenten Zeiten den Unterschied zwischen Bankrott und geschäftlichem Überleben ausmachen.
Die Gewährleistung der Geschäftskontinuität für Kunden und Partner erfordert aber auch die Gewährleistung der Geschäftskontinuität für die Rechenzentren selbst, insbesondere den Schutz von Mitarbeitern, Partnern und Lieferanten. Einer der Schlüsselbereiche, die dies unterstützen, war das Niveau des Wissensaustauschs in dieser Branche, insbesondere in Bezug auf Verfahren für Gesundheit, Sicherheit und Wohlergehen sowie bei Fragen zu Personal und Lieferketten. Dies hat auch eine wechselseitige Verbindung zur Regierung eingeschlossen. In Großbritannien wurde zum Beispiel das DCMS Data Infrastructure Resilience Team eingerichtet, um sicherzustellen, dass Rechenzentren bei wichtigen politischen Entscheidungen berücksichtigt werden.
Dies bedeutete vor allem, die Infektionswege zu begrenzen und sich mit der Realität von Standortschließungen auseinanderzusetzen. Dies erforderte einen eingeschränkten Zugang zu den Einrichtungen und die Einführung von geteilten Dienstplänen unter Beachtung der Praktiken der räumlichen Distanzierung. Außerdem wurden auch damit verbundene Verfügbarkeitsprobleme aufgezeigt, vor allem die Reduzierung des Personals vor Ort und das Fehlen von Schlüsselpersonal aufgrund von Krankheit oder Quarantäne.
Kritische Durchgangstests in Einrichtungen sind für die Risikominderung besonders wichtig, und daher sind Fernverwaltungsfunktionen von entscheidender Bedeutung. Die Kombination von Sensortechnologie, Support-Diensten zur Fehlerbehebung wie 'Smart Hands'{{Footnote.N58304}} und Systemüberwachung in wichtigen Leistungsbereichen, insbesondere Stromverteilung und Temperatur, ermöglicht ein erhöhtes Maß an Remote-Überwachung in Echtzeit. Dazu gehört auch die Fähigkeit zur verbesserten Datenanalyse und zur genaueren Vorhersage potenzieller Zwischenfälle. Tatsächlich hat die Coronavirus-Pandemie neben der Erfüllung des gesteigerten Bedarfs an Rechenkapazität, Geschwindigkeit, Zuverlässigkeit und Leistung auch die Frage in den Vordergrund gerückt, wie viel eines Rechenzentrums effektiv aus der Ferne verwaltet werden kann. Aber darüber hinaus ist die Rolle der Rechenzentren in den Bereichen Arbeit, Studium, Kommunikation und Unterhaltung – und zum besseren Verständnis des Virus und zur Unterstützung von Behandlungsmaßnahmen – jetzt deutlich sichtbar in den Mittelpunkt gerückt worden.
#KingstonIsWithYou
Fragen Sie einen Experten
Kingston bietet Ihnen eine unabhängige Meinung zur Frage, ob Ihre aktuelle oder geplante Konfiguration die richtige für Ihre Organisation ist.
Enterprise SSD
Wir bieten Beratung zum Thema, welche Vorteile Enterprise-SSDs für Ihre spezifische Speicherumgebung bieten und welche SSD am besten für Ihre Workloads geeignet ist, die eine ausgewogene Balance aus hoher zufälliger Lese- und Schreib-IOPS-Leistung erfordern.
Wir beraten Sie zu den Vorteilen der Konfiguration Ihres Servers für eine optimale Leistung und Kapazität. Die Konfigurationsexperten von Kingston verfügen über das Wissen und die Ressourcen, wenn es um Ihre Bedürfnisse in puncto Speicher-Upgrade geht.
Kingston half bei der Optimierung der Speichersysteme in den Rechenzentren von Simply Hosting, damit sichergestellt werden konnte, dass diese immer funktionsbereit sind.
Die Umstellung auf NVMe erfordert eine umfassende, vollständige Stack-Überprüfung durch IT-Architekten, damit sichergestellt werden kann, dass auf jeder Ebene des Stacks Redundanz vorhanden ist.
In diesem eBook sprechen wir mit Branchenexperten über die Vorteile von Künstlicher Intelligenz, wie sie den Datenverbrauch ankurbelt und wie Sie Ihr Unternehmen auf die damit verbundenen Möglichkeiten vorbereiten können.
Testen Sie SSDs, um die tatsächliche Ausdauer, Änderungen der Latenz und IOPS in sequentiellen sowie zufälligen Lese- oder Schreibszenarien kennenzulernen.
SSD-Testsysteme für Unternehmensserver sollten mit tatsächlicher Hardware, Betriebssystem und den eigentlichen Daten durchgeführt werden. Wir erklären hier, warum.
Wählen Sie nicht den falschen SSD-Typ für Ihren Server. Eine falsche Wahl bedeutet höhere Betriebskosten. Erfahren Sie, wie man die richtigen SSDs auswählt.
Sie planen ein neues System? Sehen Sie sich dieses Video an und erfahren Sie mehr über die Vorteile der 16Gbit-DRAM-Technologie der nächsten Generation.
Die Wahl der richtigen SSD für Ihren Server ist wichtig, da Server-SSDs für eine vorhersehbare Latenzzeit optimiert sind, Client-SSDs (Desktop/Laptop) hingegen nicht. Diese Unterschiede führen zu besseren Betriebszeiten und geringeren Verzögerungen bei kritischen Anwendungen und Diensten.
Warum sind auf Edge-Computing basierende Rechenzentren für 5G wichtig? Laden Sie Kingstons eBook zu Edge-Servern und der 5G-Einführung herunter und informieren Sie sich.
Enterprise SSDs der Serie DC500 (DC500R/DC500M) – Beständigkeit, Vorhersagbarkeit von Latenzzeiten (Reaktionszeit) und IOPS-Leistung (I/Os pro Sekunde).
Dank der Servicelevels, Qualität, Skalierbarkeit und Flexibilität der kostengünstigen Lösungen von Kingston konnte Aruba die Servicequalität für ihre Kunden steigern.
Kingston verwendet LSI® SandForce®-basierte Controller in einigen SSDs, welche die eigens für die Speicherbereinigung entwickelte Technologie verwenden.
Software-Defined Storage (SDS) bietet eine richtlinienbasierte Kontrolle der Datenebenen, unabhängig von der zugrunde liegenden Speicherhardware. Kingston Datacenter SSDs erweitern Ihre SDS-Lösung um einen leistungsstarken Speicher, und das ganz ohne die Ausfallsicherheit oder Kapazität zu beeinträchtigen.
OLTP Workloads setzen sich aus einer großen Anzahl schneller, kleiner Transaktionen zusammen, für die Reaktionszeiten von weniger als einer Sekunde erforderlich sind.
Die Durchführung von Tests ist ein Eckpfeiler in Kingstons Versprechen, die zuverlässigsten Produkte zu liefern, die auf dem Markt erhältlich sind.
Wir testen unsere gesamten Produkte in jeder Produktionsstufe nach strengen Maßstäben. Diese Tests stellen eine durchgehende Qualitätskontrolle während des gesamten Herstellungsprozesses sicher.