Edge Computing

Dlaczego 5G potrzebuje Edge Computingu i mikro centrów danych?

#KingstonCognate przedstawia Simona Bestemana

zdjęcie Simona Bestemana – konsultanta data center

Mający francusko-holenderskie pochodzenie, Simon Besteman jest weteranem branży ICT, specjalizującym się w tematyce centrów danych. Ma ponad 20-letnie doświadczenie zawodowe w pracy dla dostawców usług internetowych (ISP), dostawców rozwiązań ICT i operatorów centrów danych. Był także konsultantem ds. zarządzania w różnych organizacjach. Simon zajmował kierownicze stanowiska w międzynarodowych firmach, odpowiadając w nich za obszary usług, sprzedaży i marketingu, zarządzania operacyjnego i rozwoju strategicznego.

Obecnie Simon jest prezesem ISPConnect, holenderskiego zrzeszenia dostawców hostingu. Będąc ważną postacią w branży ICT, często udziela się jako bloger komentujący bieżące tematy zawodowe i polityczne, występuje w charakterze głównego mówcy na kongresach i konferencjach, a także jest uczestnikiem okrągłego stołu rządu holenderskiego, gdzie zajmuje się kwestiami regulacji w zakresie telekomunikacji, centrów danych i Internetu. Zasiada w zarządach różnych grup branżowych, koncentrując się na edukacji, zatrudnieniu i zarządzaniu.

Do czego potrzebne są Edge Data Centers?

Przez lata w branży data center na całym świecie najważniejszym trendem było osiąganie korzyści skali - poprzez tworzenie coraz większych obiektów, tzw. centrów danych o hiperskali. Nie bez przyczyny. Gdy całkowity koszt może być dzielony na większą liczbę serwerów, to wydatki operacyjne w przeliczeniu na szafę rackową lub na serwer są wyraźnie mniejsze. Korzystniej wygląda także zakup łączy sieciowych dla większych centrów danych. Co więcej, relatywnie łatwiej jest zbudować redundantną infrastrukturę zasilania (2N, 2N+) dla jednego bardzo dużego obiektu. W przypadku kolokacji duża liczba klientów stwarza możliwości łączenia użytkowników centrum danych w ramach symbiotycznej oferty usług.

Kurs na mikro centra danych na brzegu sieci

Social network lines

O ile dziesięć lat temu nie było jeszcze żadnego centrum danych o hiperskali, o tyle obecnie na świecie funkcjonuje ponad 500 takich ogromnych obiektów. Mało prawdopodobne, by ten trend niedługo się zmienił. Giganci technologiczni i dostawcy usług w chmurze, tacy jak Amazon, Apple, Facebook, Google i Microsoft, z roku na rok odnotowują znaczne wzrosty sprzedaży, a tradycyjne, lokalne środowiska IT stopniowo migrują do chmury. Potrzebują one bowiem coraz więcej mocy obliczeniowej i większego chłodzenia. Ponieważ rośnie wolumen danych generowanych i wykorzystywanych przez maszyny (urządzenia zautomatyzowane), możemy zakładać, że większe centra danych będą w niedalekiej przyszłości wciąż rozwijane.

Jednocześnie obserwujemy trend równoległy, polegający na rozwoju mikro centrów danych, które są umieszczane na „krawędzi” (brzegu sieci), czyli tam, gdzie dane są generowane i konsumowane. Takie centrum danych na brzegu sieci to Edge Data Center.
Edge data center są zwykle znacznie mniejsze niż typowe centra danych i stanowią uzupełnienie istniejącej infrastruktury. Nie tylko rozwiązują problem już dzisiaj, ale odgrywają także decydującą rolę w przygotowaniu infrastruktury IT do przyszłych wyzwań, są także rozwiązaniem dla problemu łączności.

Edge data centers zwiększają efektywność

Słabym punktem modelu centralizacji jest to, że wszystkie dane znajdują się w centrum danych w rdzeniu sieci, a wszyscy użytkownicy muszą połączyć się z tym centralnym miejscem, aby uzyskać dostęp do danych. Są dwie konsekwencje takiego podejścia. Po pierwsze, wymaga ono znacznej przepustowości. Po drugie, opóźnienie (czas potrzebny na dotarcie danych do użytkownika) jest na tyle duże, że zarządzanie niektórymi aplikacjami przestaje być efektywne. Umieszczenie danych bliżej krawędzi umożliwia skuteczniejsze zarządzanie ich przepływem do użytkownika. Gdy dane są buforowane w Edge Data Center, blisko miejsca ich wykorzystania, nie ma potrzeby łączenia się z centrum danych o hiperskali. Dane muszą być przesłane tylko z obiektu brzegowego do użytkownika końcowego. Ponieważ przemierzają jedynie niewielki dystans, to możliwa staje się również znacznie szybsza reakcja.

Drugi problem, którego rozwiązaniem jest infrastruktura Edge, będzie narastać i dojrzewać w ciągu najbliższych 24-36 miesięcy. Chodzi o wykładniczy wzrost ilości generowanych i wymienianych danych. Dwa główne komponenty odpowiedzialne za ten wzrost są różne, ale ze sobą powiązane – to Internet Rzeczy i 5G.

Dane generowane maszynowo

O ile wzrost wykorzystania danych w ostatnim dziesięcioleciu był spowodowany głównie ich konsumpcją przez ludzi (zaczęliśmy oglądać filmy na swoich telefonach i używać aplikacji do internetowych zakupów i bankowości), o tyle następna wielka fala danych zostanie wygenerowana przez maszyny. Wszystkie te nowe informacje będą przetwarzane, analizowane i obsługiwane przez inne maszyny. To kolejna forma danych, o wolumenie o wiele większym niż dane, których używamy dzisiaj. Mówimy o informacjach generowanych (i wymaganych) przez poruszające się samochody, czujniki na ulicach inteligentnych miast, rolnictwo, produkcję i urządzenia środowiskowe. Ten niespotykany do tej pory ogrom danych (wyobraźmy sobie 40 terabajtów danych generowanych w ciągu 8 godzin jazdy autonomicznego samochodu), należy przefiltrować i zagregować blisko źródła. Dane muszą zyskać postać już przetworzoną zanim trafią do centralnej chmury. Inteligentne miasta, Internet Rzeczy i oparte na dronach usługi dostawcze będą także potrzebować brzegowych mikro centrów danych, aby móc zrealizować potencjał 5G. Kingston Technology jest jednym z tych producentów, którzy przewidując zmiany wprowadzają na rynek rozwiązania mogące sprostać nowym, bezprecedensowym wymaganiom.

5G

Wszechobecne inteligentne urządzenia połączone ultraszybką siecią 5G

Sieć 5G stanie się osią tej rewolucji. Kolejny etap mobilnej komunikacji jest wdrażany stopniowo, począwszy od roku 2020. Technologia 5G nie tylko pozwoli osiągnąć znacznie większe prędkości (jest średnio 100 razy szybsza), ale umożliwi nam połączenie się nawet z milionem urządzeń na kilometrze kwadratowym. Przykładowo, umieszczone na każdym metrze kwadratowym pola czujniki będą mogły przesyłać w czasie rzeczywistym dane o wilgotności gleby. Umożliwi to precyzyjne nawadnianie, a w rezultacie bardziej ekonomiczne zarządzanie wodą. Czujniki w naszych domach będą także w czasie rzeczywistym przesyłać dane o naszym zdrowiu, środowisku i wymaganiach dotyczących zasilania. W przemyśle, 5G umożliwi zdalne zarządzanie częściami, automatyzację kontroli jakości i łańcuchów dostaw. Zmiany wpłyną na sposób, w jaki pracujemy i żyjemy.

Rozwój mikro centrów danych w telekomunikacji

Obecnie za większość wdrożeń typu Edge w postaci mikro centrów danych odpowiadają dostawcy usług telekomunikacyjnych. Posiadają oni potrzebną infrastrukturę, a co ważniejsze, dysponują także nieruchomościami potrzebnymi do stworzenia odpowiednich struktur. W rezultacie będą pionierami w obszarze Edge. Szybko podążą za nimi firmy zarządzające komercyjnymi centrami danych.

Związane z rozwojem 5G wymagania wobec brzegowych centrów danych będą zupełnie inne, niż wobec obecnych data center. Obiekty takie są mniejsze, potrzebują mniejszej mocy i będą dostosowane do szybkiej komunikacji i przechowywania danych, głównie na dyskach SSD. Kingston Technology opracowuje rozwiązania pamięci operacyjnej i masowej do obsługi dużego wolumenu danych i wielkich prędkości.

Czas przygotować się do Edge Computing

Rozpoczyna się gra i musimy dostosować się do nowej rzeczywistości. Nadszedł czas na Edge. Brzeg sieci potrzebuje nowego rodzaju centrum danych, z innymi wymaganiami niż te, do których jesteśmy przyzwyczajeni. Dlatego właściwe przygotowanie będzie miało kluczowe znaczenie dla sukcesu we wdrażaniu nowych rozwiązań, warto więc dotrzeć do odpowiednich osób dysponujących wiedzą o prawidłowym konfigurowaniu nowego typu rozwiązań.

Dowiedz się więcej o rozwiązaniach z dziedziny pamięci masowych firmy Kingston dla klientów Enterprise

Zapytaj eksperta

Firma Kingston oferuje możliwość uzyskania niezależnej opinii pozwalającej określić, czy istniejąca lub projektowana konfiguracja jest odpowiednia dla danej organizacji.

Korporacyjne dyski SSD

Doradzamy, jakie korzyści przyniosą korporacyjne dyski SSD w środowisku pamięci masowej Twojej organizacji, i który z nich jest najlepszym rozwiązaniem w przypadku obciążeń wymagających wysokiej wydajności IOPS (operacje wejścia/wyjścia na sekundę) przy losowym odczycie i zapisie.

Zapytaj eksperta SSD

Pamięci do serwerów

Doradzamy i przedstawiamy korzyści płynące z konfiguracji Twojego serwera pod kątem optymalnej wydajności i pojemności. Eksperci firmy Kingston posiadają odpowiednią wiedzę, dzięki której pomogą CiCi w modernizacji pamięci.

Zapytaj eksperta ds. pamięci

Aby dowiedzieć się, jak wirus COVID-19 wpłynął na działanie naszej firmy, kliknij tutaj.

Pozostańmy w kontakcie! Zapisz się do naszego newslettera i otrzymuj informacje o nowościach od firmy Kingston.

OptInUSKingston_Consent_Message