Zauważyliśmy, że obecnie odwiedzasz witrynę w Wielkiej Brytanii. Czy zamiast tego chcesz odwiedzić naszą główną stronę?

Kobieta i mężczyzna patrzący na tablet.

Ocena produktów pamięci masowej pod kątem potrzeb przedsiębiorstwa

Ocena produktów pamięci masowej przez dział IT to ważny proces, który może zdecydować o kształcie infrastruktury cyfrowej firmy. Źle zaprojektowane rozwiązanie pamięci masowej może znacznie pogorszyć wydajność i doprowadzić do poważnych przestojów lub, w najgorszym przypadku, do trwałej utraty danych. Jednak przemyślana decyzja, podjęta z uwzględnieniem odpowiednich czynników, może zapewnić organizacji skalowalne rozwiązanie pamięci masowej, które spełni wymagania dotyczące wydajności i niezawodności systemu.

Zwłaszcza przy większej skali działania utrzymywanie architektury IT może przypominać utrzymywanie „na chodzie” starego samochodu. Jeśli brakuje czasu lub pieniędzy na znalezienie lepszej alternatywy, jest ono kosztowne i wymaga dużych zasobów. Administratorzy IT korzystający z przestarzałego i nieefektywnego sprzętu mogą mieć trudności z nadążaniem za rozwojem firmy i wspieraniem inicjatyw wymagających transformacji danych.

Wybór odpowiedniego rozwiązania pamięci masowej

Ręka osoby w garniturze dotyka wirtualnego ekranu, aby wybrać funkcję zarządzania dokumentami, opcje wysyłania i pobierania, zabezpieczenia, ustawienia i inne

W przypadku projektowania rozwiązania od podstaw ważne jest, aby najpierw zrozumieć architekturę wysokiego poziomu i projekt systemu proponowanego rozwiązania, a także potencjalne wąskie gardła zasobów w całym systemie. Pozwoli to architektom aplikacji i pamięci masowej na wybór i zaprojektowanie odpowiedniego rozwiązania pamięci masowej. Oto kilka kluczowych pytań, które powinni zadać sobie architekci pamięci masowej, aby podjąć świadomą decyzję:

  • Do czego będzie służyć rozwiązanie pamięci?
  • Czy będzie wymagać dostępu do pamięci blokowej, plikowej czy obiektowej?
  • Jakie jest typowe obciążenie robocze?
  • Jakie są wymagania dotyczące IOPS, przepustowości i opóźnienia?
  • Jaka jest wymagana dostępność (99,9%, 99,99% czy 99,999%)?
  • Czy konieczne jest wykonywanie kopii zapasowej danych? Z jaką częstotliwością?
  • Czy konieczna jest replikacja danych?
  • Jakie są wymagania dotyczące odzyskiwania po awarii w kategoriach celu czasu odzyskiwania (RTO) i celu punktu odzyskiwania (RPO)?
  • Jakie są wymagania dotyczące przechowywania danych?
  • W jak dużym stopniu dane zmieniają się codziennie, co tydzień, co miesiąc, co rok?
  • Jaki jest spodziewany przyrost ilości danych rocznie?

Wymagania dotyczące danych przedsiębiorstwa

Zrozumienie wymagań dotyczących bloków, plików i obiektów

Przy wdrażaniu nowych aplikacji istotna jest znajomość rodzaju przechowywanych danych, aby podjąć świadomą decyzję, czy wykorzystać pamięć blokową, plikową czy obiektową.

Pamięć blokowa jest najczęściej używana w środowiskach DAS i SAN. W przypadku środowisk DAS cały wolumin RAID lub dysk fizyczny jest udostępniana systemowi operacyjnemu jako surowy, niesformatowany wolumin. W przypadku środowisk SAN cała jednostka LUN (złożona z kilku dysków fizycznych), dostępna z poziomu macierzy pamięci masowej, jest udostępniana systemowi operacyjnemu przez szybką sieć jako surowy, niesformatowany wolumin. Warstwy bazowe surowego woluminu składają się z mniejszych obszarów lub sektorów obsługiwanych przez system operacyjny, a następnie bazowy podsystem pamięci masowej jest w stanie odwzorować te bloki logiczne na określone bloki fizyczne na określonych dyskach. Pamięć masowa na poziomie bloków jest szybka, niezawodna i doskonale nadaje się do przechowywania stale zmieniających się danych w takich zastosowaniach, jak relacyjne bazy danych, bazy danych przetwarzania transakcji online (OLTP), serwery poczty e-mail czy infrastruktura pulpitów wirtualnych, gdzie wymagane są wysoka przepustowość transakcji i małe opóźnienia.

Obiektowa pamięć masowa przechowuje dane (i powiązane z nimi metadane) w kontenerach z unikalnymi identyfikatorami, bez folderów lub podkatalogów wykorzystywanych w pamięci plikowej. Opierają się one na koncepcji magazynów „klucz-wartość”, w których każdy klucz wskazuje na określoną „wartość” lub fragment danych i jest pobierany za pośrednictwem interfejsów API.

Pamięć tego typu jest wykorzystywana głównie do obsługi dużych ilości nieustrukturyzowanych danych, takich jak wiadomości e-mail, obrazy kopii zapasowych, nagrania z monitoringu wideo lub – w przypadku zastosowań związanych z Internetem rzeczy – do zarządzania danymi na potrzeby uczenia maszynowego i analizy danych. Obiektowa pamięć masowa dobrze sprawdza się w przypadku bardzo dużych ilości danych i może być skalowana tak szybko, jak wymaga tego dane zastosowanie. Jest jednak powolna przy odczycie danych, co czyni ją nieefektywną w przypadku baz danych lub systemów obliczeniowych o dużej wydajności. Przykładami obiektowej pamięci masowej są Amazon S3, pamięć obiektowa Google Cloud czy Azure Blob Storage.

Pamięć plikowa przechowuje dane w postaci plików zorganizowanych w folderach i podkatalogach i jest udostępniana za pośrednictwem sieci w oparciu o protokół SMB (Windows) lub NFS (Linux). Jest odpowiednia na potrzeby centralizacji plików do przechowywania, takich jak filmy, obrazy lub dokumenty, ale ma ograniczoną skalowalność, ponieważ ilość danych stale rośnie. Nie jest to najlepsze rozwiązanie do obsługi bardzo dużych ilości nieustrukturyzowanych lub ciągle zmieniających się danych, takich jak bazy danych OLTP.

Pracownik z rysikiem siedzący przy laptopie manipuluje wirtualnym wyświetlaczem, wybierając opcje podpisywania dokumentu elektronicznego

Dlatego odnoszące sukcesy przedsiębiorstwa dbają o budowanie systemów obliczeniowych o wysokiej wydajności (HPC). Wykorzystują one lokalne bazy danych i usługi danych do wykonywania obliczeń transakcyjnych, a następnie umożliwiają ich natywną integrację z magazynami obiektów w chmurze w celu przechowywania dużych ilości nieustrukturyzowanych danych. Pozwala to na realizację transakcji wymagających dużej przepustowości i IOPS z wykorzystaniem szybkiej pamięci blokowej i plikowej w lokalnych centrach danych oraz przechowywanie dużej ilości nieustrukturyzowanych danych w wolniejszej obiektowej pamięci w chmurze.

Przetwarzanie danych na dużą skalę wymaga wyboru rozwiązania do przechowywania danych w oparciu o typ danych, które firma chce analizować. Na przykład aby przetwarzać i analizować nieustrukturyzowane dane lokalne lub przechowywane w chmurze, firma potrzebuje platformy dla danych w postaci plików na potrzeby hybrydowej infrastruktury pamięci masowej, która umożliwi do nich dostęp i analizę w czasie rzeczywistym.

Testowanie wydajności pamięci masowej

Głównym elementem oceny produktów pamięci masowej jest ich testowanie i weryfikacja. Testowanie przynosi wiele korzyści. Dzięki testom z wykorzystaniem odpowiednich narzędzi można uzyskać efekty w postaci lepszej wydajności aplikacji, optymalizacji kosztów pamięci masowej i ograniczenia ryzyka. Jednak małe lub niedofinansowane działy IT mogą mieć z tym trudności, ponieważ podejście typu „zrób to sam” lub wykorzystanie oprogramowania shareware często uniemożliwia przeprowadzenie wymagających testów niezbędnych do odtworzenia rzeczywistego środowiska produkcyjnego firmy.

Testowanie umożliwia uzyskanie odpowiedzi na następujące pytania:

  • Jak bardzo możemy poprawić wydajność aplikacji, wdrażając nowe technologie/produkty pamięci masowej?
  • Czy stać nas na poprawę wydajności?
  • Czy nowe techniki obniżą koszt w przeliczeniu na jeden gigabajt bez nadmiernego wpływu na wydajność?
  • Jak wybrać najlepszą technologię/produkt/konfigurację, aby były odpowiednie do obciążeń roboczych naszych aplikacji?
  • Które obciążenia robocze najbardziej zyskają na nowych architekturach/produktach?
  • Gdzie są granice wydajności potencjalnych nowych konfiguracji?
  • Jak zachowają się nośniki danych po osiągnięciu limitów wydajności?

W przypadku wyboru skalowalnego rozwiązania do przechowywania danych przedsiębiorstwa bardzo ważna jest ocena, jak wybrana pamięć masowa obsługuje dane i aplikacje.

Pomoc techniczna dla produktów pamięci masowej

Świetny produkt bywa nieraz pozbawiony wsparcia zespołu pomocy technicznej, który służyłby przedsiębiorstwu pomocą w rozwiązywaniu potencjalnych problemów podczas jego użytkowania. I odwrotnie – dobry produkt może wznieść się na wyżyny funkcjonalności dzięki wyjątkowym wysiłkom zespołu pomocy technicznej. Podejmując decyzję o potencjalnej zmianie rozwiązania pamięci masowej, warto wziąć pod uwagę dotychczasowe relacje z dostawcą pamięci masowej dla przedsiębiorstwa. Wpływ na wybór powinny mieć także wszelkie aspekty umowy dotyczącej poziomu usług (SLA) – np. zapewnienie kluczowych wskaźników wydajności, takich jak wartości opóźnienia, przepustowości czy IOPS przy określonych obciążeniach. Jeśli potencjalny dostawca ma dobrą reputację w branży (np. generalnie przewyższa standardy branżowe), można wierzyć mu na słowo, gdy mówi o takich parametrach, jak wysoka liczba operacji we/wy na sekundę czy przepustowość przy akceptowalnym opóźnieniu dla poszczególnych platform.

Kolejnym elementem, o którym należy pamiętać, jest koszt branych pod uwagę produktów pamięci masowej. Należy uwzględnić nie tylko koszt zakupu, ale także koszt utrzymania i całkowity koszt posiadania (TCO).

#KingstonIsWithYou

Zapytaj eksperta w dziedzinie dysków SSD

Zapytaj eksperta Serwerowe dyski SSD

Firma Kingston służy niezależną opinią i doradztwem w celu określenia, jakie korzyści przyniosą korporacyjne dyski SSD w środowisku pamięci masowej Twojej organizacji, oraz który z nich będzie najlepszym rozwiązaniem w przypadku obciążeń wymagających zrównoważonej, wysokiej wydajności IOPS przy losowym odczycie i zapisie danych.

Zapytaj eksperta

Powiązane artykuły