Napędy optyczne określane są także jako pamięć masowa (ang. mass memory, mass storage) – pamięć trwała, przeznaczona do długotrwałego przechowywania dużej ilości danych w przeciwieństwie do pamięci RAM i ROM. Definicja pamięci masowej obejmuje jedna więcej kategorii: Napędy magnetyczne: - dyski twarde, - taśmy magnetyczne
Pojemność dysku jaką posiada sprzęt komputerowy nie zawsze jest w stanie pomieścić wszystkie dane, pliki czy nawet oprogramowania, z których często korzystamy. W takiej sytuacji jedynym rozwiązaniem jest ich zapisanie na zewnętrznych nośnikach pamięci. W dobie niezwykle szybkiego rozwoju technologicznego na rynku branży komputerowej oferowane są różnego rodzaju urządzenia pełniące rolę pamięci zewnętrznej. Tego rodzaju nośniki pozwalają zarówno na zapis jak i odczyt olbrzymich ilość różnego rodzaju danych na dowolnym urządzeniu wyposażonym w specjalnie do tego celu dedykowany slot. Rodzaje zewnętrznych nośników pamięci: Płyty CDW dobie rozbudowanej oferty rynku branży elektronicznej klasyczne płyty CD w dalszym ciągu stanowią jego ważny segment i cieszą się dużym zainteresowaniem. Najczęściej znajdują zastosowanie do zapisywania mniej istotnych bądź rzadziej używanych plików. Warto pamiętać, że można je szybko uszkodzić nawet przez niewielkie zrysowanie powierzchni. W aktualnej ofercie sprzedaży dostępne są płyty CD o pojemności od 650 do 900 MB. Użytkownicy mają do wyboru płyty CD w wersji R, która oznacza możliwość jednorazowego zapisania danych oraz wersji RW co wiąże się z możliwością wyczyszczenia zapisanych danych i nagrania nowych. Płyty DVDKolejnym, znanym i popularnym zewnętrznym nośnikiem danych są płyty DVD. Posiadające 4,75 GB pojemności płyty dostępne są w sprzedaży aż w trzech wersjach. Klasyczna z symbolem R przeznaczona jest do jednorazowego zapisania danych. DVD RW pozwala na wyczyszczenie wcześniej zapisanych plików i zapisanie na płycie nowych plików. Z kolei płyty dostępne w wersji DVD R DL posiadają aż dwie warstwy zapisu co w efekcie zwiększa ich pojemność do ponad 8 GB. Płyty Blu-ReyPłyty Blu-Rey to zewnętrzne nośniki pamięci, które dzięki zastosowaniu niebieskiego lasera charakteryzuje znacznie zwiększona w stosunku do płyt CD i DVD gęstość zapisu. Pojemność tego rodzaju nośników oscyluje w granicach od 25 GB i sięgać może nawet do kilkuset GB. Najczęściej znajdują zastosowanie jako zewnętrzny nośnik plików video zapisanych w rozdzielczości Full HD. PnedrivePendrive to najbardziej znana i popularne wśród użytkowników sprzętu komputerowego pamięć zewnętrzna. Zastosowanie pamięci typu Flash dało możliwość stworzenia niezwykle małego, szczelnie zamkniętego i odpornego na wszelkiego rodzaju uszkodzenia urządzenia, które bez problemu zmieści się w kieszeni spodni, portfelu, torebce lub w bezpieczny sposób dla zapisanych danych będzie pełnić rolę ozdobnego breloczka. Łączność pomiędzy tego rodzaju nośnikiem pamięci zewnętrznej, a sprzętem komputerowym zapewnia port USB. W ofercie rynkowej znaleźć można pendrive o pojemności od 4 do 64 a nawet więcej GB, które obsługiwane są przez porty USB klasy 3,0. Zastosowanie portów USB klasy 3,0 gwarantuje bardzo szybki transfer danych co jest olbrzymią zaletą w przypadku kopiowania bądź odtwarzania dość dużych plików. Dyski zewnętrzneRolę zewnętrznych nośników pamięci pełnią również dyski zewnętrzne. Najczęściej spotkać można dyski klasy HDD 3,5 bądź 2,5 których obudowa wyposażona jest w port USB. W ofercie sprzedaży dostępne są również zewnętrzne dyski SSD, które charakteryzuje zdecydowanie większa szybkość transferu danych, większa wytrzymałość na uszkodzenie oraz bezgłośna praca. Ze względu na dość wysoką cenę ten rodzaj zewnętrznych nośników w dalszym ciągu dostępny jest jedynie dla kieszeni wciąż nie licznej grupy użytkowników. Karty pamięciRolę zewnętrznych nośników pamięci pełnią również specjalne karty pamięci. Rodzaj karty pamięci uzależniony jest od urządzenia, z którym mają współpracować. W przypadku aparatów i kamer cyfrowych zalecane jest zastosowanie kart SD, do smartfonów karty micro SD, a CompactFlash doskonale współpracują z aparatami cyfrowymi. Serwery NASZewnętrznymi nośnikami pamięci są również serwery NAS. Ich zadaniem jest zdalny dostęp do danych, które zostały zapisane i są przechowywane na dyskach przy wykorzystaniu sieci internetowej. Charakteryzuje je bardzo wysoka, bo sięgają kilka TB pojemność. Najczęściej znajdują zastosowanie do przechowywania kopii zapasowych. Jeśli potrzebujesz zewnętrznych nośników danych zapraszamy do sklepu internetowego:

Właśnie takie nośniki pamięci masowej oferujemy w sklepie Ale.pl. Czym się różni pamięć masowa od pamięci operacyjnej? Pamięć masowa, jak już wspomnieliśmy wcześniej, służy do przechowywania danych przez bardzo długi okres.

W najbliższym roku nie będziemy świadkami wprowadzania nowych technologii pamięci masowych, które mogłyby mieć duże znaczenie. Zamiast tego będziemy obserwować popularyzację i udoskonalanie stosowanych standardów. W najbliższym roku nie będziemy świadkami wprowadzania nowych technologii pamięci masowych, które mogłyby mieć duże znaczenie. Zamiast tego będziemy obserwować popularyzację i udoskonalanie stosowanych standardów. Postęp w technologiach pamięci masowej i wdrożenie nowinek postępuje znacznie wolniej, niż w przypadku procesorów czy kart graficznych. Od wstępnej koncepcji do przyjętego standardu i produktów na rynku upływa czasem nawet kilka lat. Później produkty dojrzewają, zostają udoskonalone, stają się szybsze, bardziej pojemne, ale w swoich założeniach wciąż podobne do modeli sprzed kilku lat. Tego właśnie będziemy świadkami w 2004 roku. Trend 1. Nagrywarki DVD +/-R/RW Nagrywarki DVD, dzięki spadającym cenom i obsłudze wielu formatów, podbiją ostatecznie w 2004 roku rynek. Nagrywarki CD-R/RW to już przeszłość! Wniosek to może jeszcze nieco zbyt śmiały, ale w perspektywie kilkunastu miesięcy bliski prawdy. Co nas skłania do tego twierdzenia? Prosta prawda, że lepsze jest wrogiem dobrego, a lepsze są nagrywarki DVD, które jednocześnie potrafią nagrywać płyty CD. Urządzenia tego typu są na rynku już od pewnego czasu, ale dopiero teraz ich sprzedaż powinna wzrosnąć z kilku powodów. Pierwszym jest, oczywiście, spadek cen. Najtańsze modele można kupić już za 700 zł, podczas gdy na początku roku kosztowały około 2500 zł. Współczujemy wszystkim, którzy w poszukiwaniu nowinek tak bardzo przepłacili. Po drugie, coraz więcej nagrywarek obsługuje co najmniej dwa formaty, najczęściej ze znaczkiem + oraz -. Zgodność tylko z jednym formatem, przy braku ostatecznego, dominującego standardu, powstrzymywała wiele osób przed zakupem starszych nagrywarek. Możliwość wyboru jednego z dwóch daje praktycznie pewność, że nagrane płyty będzie można na przykład odtworzyć w prawie każdym stacjonarnym odtwarzaczu DVD. I wreszcie - nagrywanie płyt CD osiąga poziom zbliżony do tego, który znamy z samodzielnych nagrywarek CD-R/RW. Pojawiły się już pierwsze modele nagrywarek DVD, które płyty CD wypalają z prędkością x40. W takim wypadku kupowanie oddzielnej nagrywarki CD przestaje mieć sens, a zaoszczędzone pieniądze można przeznaczyć na zakup bardziej zaawansowanego urządzenia. W tej chwili najszybsze modele nagrywają płyty typu R z prędkością x4, a płyty RW z prędkością x2,4. Wszystkie znaki na niebie i ziemi wskazują jednak, że już na początku nowego roku w sprzedaży pojawią się modele x8, które całą płytę typu R będą mogły nagrać w ciągu mniej więcej 10 minut! Oznacza to, że przyszłość tego typu urządzeń rysuje się w różowych barwach i zapewne podążać będą taką samą ścieżką, jak wcześniej napędy CD-ROM, nagrywarki CD i napędy DVD. A to oznacza, że za mniej więcej 3 lata nagrywarka DVD powinna kosztować zaledwie 200-300 zł. Trend 2. USB Stick Najpierw było o dużych pojemnościach, teraz będzie o mniejszych, ale niezwykle użytecznych. Pamięci USB Stick (typu flash, podłączane przez USB) rozpoczęły podbój rynku! Stanowią idealny wymiennik dyskietki, która nie ma już racji bytu. Popularne modele mają pojemności od 32 do 256 MB i coraz częściej zgodne są ze standardem USB dzięki czemu transfer danych odbywa się błyskawicznie. Lista potencjalnych zastosowań tego typu pamięci jest bardzo długa i wcale nie ogranicza się do przenoszenia plików. Fantastycznych pomysłów w tym zakresie powstaje bardzo wiele, część z nich ma charakter rozszerzeń sprzętowych, część zaś polega na inteligentnym wykorzystaniu oprogramowania. Przykłady można mnożyć. Pierwszym z brzegu jest hybryda - odtwarzacz MP3 i USB Stick w jednym, czyli MuVo firmy Creative. Może działać jak typowa przenośna dyskietka, ale po dołożeniu drugiego modułu zamienia się w wygodny miniaturowy odtwarzacz. Miniaturowy aparat cyfrowy zintegrował z USB Stickiem Philips. Od strony programowej dostępne są na przykład specjalne dystrybucje Linuksa z bogatym pakietem przydatnych narzędzi, które można uruchamiać bezpośrednio z USB Sticka. Firma IOmega przygotowała bogaty pakiet zmodyfikowanych programów, które uruchamiają się bezpośrednio z USB Stick, bez instalacji. Są wśród nich narzędzia biurowe, internetowe i wiele innych. Trend 3. Serial ATA Dyski Serial ATA nie są wprawdzie dużo szybsze niż obecne dyski IDE, ale wygodniejsze w montażu i mają dużo większy potencjał na przyszłość. W 2004 roku dyski Serial ATA powinny już dominować w sprzedaży. Od kilku miesięcy praktycznie wszystkie płyty główne są już wyposażone w odpowiednie kontrolery, a dodatkowy kontroler IDE tylko niepotrzebnie podnosi cenę płyty głównej. Naszym zdaniem, przełom nastąpi wraz z wprowadzeniem chipsetów Grantsdale i magistrali PCI Express. Będzie to moment, w którym wiele starych technologii zostanie odesłanych do muzeum, a wśród nich właśnie dyski IDE. Trend 4. Ku terabajtom Kilka lat temu informacja, że jakiś potężny system komputerowy wyposażony jest w pamięć dyskową liczoną w terabajtach, mogła wywoływać zdumienie. Tymczasem dzisiaj standardem stają się dyski powyżej 100 GB, a za nieco powyżej 1000 zł można kupić dysk 200 GB. Biorąc pod uwagę, że niektóre płyty główne pozwalają podłączyć nawet 12 twardych dysków, a standardem jest sześć, oznacza to, że możesz mieć w komputerze bez trudu (a jedynie ponosząc pewne koszty) nawet ponad 2 TB powierzchni dyskowej. Trendy w pigułce Zalety Serial ATA - coraz bardziej uniwersalne i coraz bardziej pojemne nośniki pamięci masowych. Wady Dyski IDE - niech spoczywają w spokoju.

Czym różni się pamięć operacyjna od masowej? Pamięć masowa ma za zadanie przechowywać dane na stałe. Rzecz w tym, że nie ważne czy wyłączysz komputer, wyjmiesz dysk, przełączysz go do drugiego urządzenia, a potem ponownie podłączysz w pierwotnym laptopie, baza danych, którą zapisałeś będzie tam cały czas. Tak długo jak

Spośród liczb: -350, -74, -3, 14, 180, -437 wybierz dwie liczby, których iloczyn jest największy oraz dwie liczby, których iloczyn jest najmniejszy. Answer

Im ;) Pamięć masowa pamięć trwała, przeznaczona do długotrwałego przechowywania dużej ilości danych, w przeciwieństwie do pamięci RAM i ROM. Pamięć masowa zapisywana jest na zewnętrznych nośnikach informacji. Nośniki informacji zapisywane i odczytywane są w urządzeniach zwanych napędami.
Odpowiedzi EKSPERTdark24 odpowiedział(a) o 19:07 NOŚNIKI ZEWNĘTRZNEZainstalowana w komputerze pamięć operacyjna, nie jest w stanie pomieścić wszystkich danych, programów i wszystkich innych plików, jakie są nam potrzebne do pracy. Kolejnym mankamentem jest jej ulotność. Pamięć taka jest wykorzystywana w trakcie pracy z komputerem, gdy mamy włączone zasilanie. Natomiast po wyłączeniu komputera, czy zaniku zasilania, wszystkie zapisane w niej informacje, podlegają kasowaniu. Rozwiązaniem jest stosowanie nośników zewnętrznych - zewnętrznych pamięci wiele rodzajów nośników danych, różniących się wyglądem pojemnością itp. Każde z nich wymaga odpowiedniego urządzenia do pracy, i najczęściej nie są to urządzenia w żaden sposób kompatybilne ze sobą pod względem tabelka przedstawia nazwy nośników i urządzenia służące do ich nośnikaUrządzenie obsługującetaśma magnetycznamagnetofon kasetowy, streamerdyskietka magnetyczna 3,5" - DD,HD,2HDo pojemności: 1,44 MB, 2,88 MB, 720 kB do 2,88 MBstacja dysków FDD stacja dysków FDDdyskietka magnetyczna 5,25"o pojemności 360 kB do 1,2 MBstacja dysków FDD 1,2 MBdyskietka magnetyczna typu ZIPnapęd ZIP do 2,5 MBdyski magnetyczne o pojemnościach od ok. 100 MB (pojemności tego rzędu obecnie są już historią) do ponad 300 GBdysk twardy HDDdyski optyczne-CD od 190 do 870 MBczytnik CD-ROM, urządzenia do zapisu CDdyski optyczne-DVD - od 4,7 do 16 GBczytnik DVDdyski HD_DVD i BDczytnik HD_DVD / BD Uważasz, że ktoś się myli? lub Napędy pamięci masowej. Pliki gier i nagrań wideo stają się coraz większe, co wymusza wzrost nie tylko pojemności, ale i szybkości pamięci masowej. Potrzeby te zaspokajają najnowsze wewnętrzne i zewnętrzne dyski SSD oraz USB firmy CORSAIR. Są wyposażone w najnowsze technologie, zapewniające odpowiednią szybkość dostępu i
Twarde dyski są wolne i znacznie szybsze nie będą. Z tego powodu nasze komputery nie działają tak szybko, jak by mogły. Procesor, zamiast wykonywać zlecone mu zadania, musi czekać na dane, których dysk nie jest mu w stanie dostarczyć w krótkim czasie. Przekonywanie, że jest inaczej, to mydlenie oczu nieistotnymi informacjami. Czy SSD jest wybawieniem z tej sytuacji? Aby się o tym przekonać warto poznać czym w rzeczywistości jest wydajność napędów dyskowych. Trochę historii… W 1956 r. firma IBM publicznie zaprezentowała komputer IBM RAMAC 305. Była to maszyna wyjątkowa ze względu na fakt zainstalowanej w niej pamięci masowej zbudowanej z rotujących, magnetycznych talerzy. Komponent ten miał nazwę IBM 350 i był to pierwszy twardy dysk. Wywołało to rewolucję w informatyce. Wcześniej dane przechowywano najczęściej na kartach perforowanych. W dużych firmach ich ogromne ilości były układane w skrzyniach (tub files). Gdy zachodziła konieczność użycia danych (np. wystawienie faktury), pracownik ręcznie odszukiwał odpowiednie karty (dane klienta i kupowanych produktów), ładował je do czytnika i uruchamiał właściwy program (tworzenie faktury). Następnie zabierał je oraz ewentualnie nowe karty wynikowe (faktura) i odkładał w tub file. Aby optymalnie wykorzystać cenny czas pracy komputera zlecenia wykonania obliczeń zbierane były w większe paczki. Karty układano w sekwencje zgodnie z kolejnością zleceń w paczce i dla wszystkich uruchamiano przetwarzanie. Dzięki temu nie trzeba było biegać między tub files a komputerem za każdym razem, jak pojawiło się nowe zlecenie. Ten wsadowy tryb pracy (batch), mimo, że jest efektywny, ma jedną istotną wadę – oczekiwanie na wynik wymaga cierpliwości. Głównym zadaniem inżynierów IBM przy tworzeniu RAMAC 305 było stworzenie nowego rodzaju systemu, którego podstawą jest uzyskiwanie rezultatów działania bezpośrednio po jego zleceniu. Z czasem taki tryb pracy z komputerem przyjął nazwę OLTP – OnLine Transaction Processing. Rozważano także użycie technologii taśmowej. Stosowano ją wtedy w systemach komputerowych już od pięciu lat. Prędkość sekwencyjnych zapisów i odczytów na taśmy była ponad 2x większa niż w przypadku IBM 350. Jednak próby losowego dostępu do danych nie przynosiły dobrych rezultatów. Podobnie jak w przypadku tub files, taśmy można było efektywnie używać tylko do przetwarzania w trybie wsadowym. Pomysł na umieszczenie danych na rotujących magnetycznych talerzach okazał się najlepszy. Zastosowanie IBM 350 umożliwiło szybki, losowy dostęp do danych. Zmieniło to sposób pracy z komputerem. Operator IBM RAMAC 305 mógł uruchomić program dla dowolnych danych w dowolnym czasie i od razu uzyskać wynik obliczeń. Taki sposób dostępu do informacji był tak istotny, że od niego wzięła się właśnie nazwa RAMAC – Random Access Method of Accounting and Control, czyli Losowa Metoda Dostępu dla Księgowości i Kontroli. Fizyczność dysku Ten historyczny rys miał na celu pokazanie jakie były powody powstania dysków twardych. Mimo, że od tamtych wydarzeń minęło już ponad pół wieku, są one nadal aktualne. Znacznie zwiększyła się jednak ilość danych oraz nasze wymagania. Pracując z komputerem oczekujemy natychmiastowego wyniku naszych operacji. Jeżeli do ich wykonania wymagane jest skorzystanie z informacji zapisanych na dysku, powinny być one szybko odszukane i dostarczone. Nie chcemy też czekać na zapisanie wyników naszej pracy. Aby sprostać tym oczekiwaniom dysk musi kręcić się z wielką prędkością, a jego głowica szybko i precyzyjnie lokalizować sektory szerokości zaledwie kilku atomów. Jest to konieczne dla uzyskania wysokiej wydajności i pojemności. Budowa dysków twardych wymaga od ich konstruktorów przełamywania kolejnych fizycznych barier. Niestety większość z nich jest już niemożliwa do sforsowania. W 2000 roku firma Seagate zaprezentowała pierwszy dysk kręcący się z prędkością 15 tys. obrotów na sekundę (RPM). Dzisiaj jest to nadal najlepszy wynik, dostępny tylko w najdroższych modelach. Większość dostępnych na rynku HDD ma 7200 RPM. Ruchy głowicy w najszybszym aktualnie dysku są tylko o 25% szybsze od wspomnianego Seagate’a. Oznacza to, że realna wydajność dysków twardych w ciągu 9 lat wzrosła o 16%. Jest to fakt, którym producenci nie chcą się chwalić i w sumie nie ma co się dziwić, jako że przemilczanie tej prawdy jest wymogiem współczesnego marketingu, podobnie jak eksponowanie nieistotnych parametrów. W przypadku HDD przykładem takiej nieistotnej informacji jest maksymalna prędkość transmisji danych wyrażana w MB/s. Mydlenie oczu Podawana przez producentów maksymalna prędkość transmisji danych jest z roku na rok coraz większa. Wynika to głównie z coraz szybszych interfejsów (SATA, SAS, FC). Ich możliwości ciągle się zwiększają, co jest związane z postępem w dziedzinie elektroniki. Nie oznacza to bynajmniej, że jednocześnie rośnie wydajność dysku. Do osiągnięcia wyników transferu prezentowanych w specyfikacjach niezbędne jest wykonanie testu, który nie ma nic wspólnego z rzeczywistością. W tym celu generowany jest sekwencyjny strumień danych złożony w wielkich bloków (1, 2, 4 MB). Jest to dobra metoda na sprawdzenie mocy napędów taśmowych, które są przeznaczone do obsługi sekwencyjnych strumieni danych. Nie sprawdza się jednak w przypadku dysków, których główne przeznaczenie to udostępnianie danych w sposób losowy. Aby poznać wydajność HDD trzeba sprawdzić jak będzie on sobie radził w warunkach, w których najczęściej przyjdzie mu pracować. Parametrem, który to najlepiej obrazuje, jest średnia ilość losowych operacji zapisu/odczytu na sekundę (IOPS). Wartości tej nie można znaleźć w specyfikacjach dysków twardych. Są tam jednak dostępne informacje, dzięki którym łatwo go obliczyć samodzielnie – prędkość obrotowa dysku (RPM) i średni czas pozycjonowania głowicy (average seek time). Parametry te określają generowane przez dysk opóźnienia w dostępie do danych. Cała reszta danych dostarczanych przez producentów nie jest istotna dla wydajności. Dotyczą one elektroniki, a w porównaniu z elementami mechanicznymi jest ona dużo szybsza. IOPS to informacja o tym, ile razy w ciągu sekundy dysk jest w stanie ustawić głowicę nad zadanymi sektorami. W tym celu trzeba obliczyć ile średnio trwa pojedynczy losowy dostęp do danych (average access latency). Jest to równe sumie opóźnień generowanych przez obroty dysku (average rotation latency) i ruch głowicy (average seek latency): average rotation latency = 60s / RPM / 2 average seek latency = (read seek time + write seek time) / 2 average access latency = average rotation latency + average seek latency Teraz wystarczy tylko wyliczyć ile operacji I/O przy takim opóźnieniu jest w stanie wykonać się w ciągu sekundy i otrzymujemy nasze średnie IOPS dla operacji losowych: average random IOPS = 1000ms / average access latency Przykład: dysk Seagate Barracuda 1TB 7200 RPM read seek time: 8,5 ms write seek time: 9,5 ms avarage rotation latency 60s / 7200 / 2 = 4,2ms avarage seek latency (8,5ms + 9,5ms) / 2 = 9ms average access latency 4,2ms + 9ms = 13,2ms average random IOPS 1000ms / 13,2ms = 75,75 Użycie takiego kalkulatora ułatwia liczenie. Dopiero znając wartość parametru IOPS można wyliczyć prędkość transferu danych dla różnych wielkości bloku: 75,75 * 4 kB = 303 kB 75,75 * 8 kB = 606 kB 75,75 * 32 kB = 2424 kB 75,75 * 128 kB = 9696 kB 75,75 * 512 kB = 38784 kB 75,75 * 1 MB = 75,75 MB Jak widać przy losowych operacjach, dopiero bardzo duże wielkości I/O pozwalają na uzyskanie szybkiego transferu danych. Wiemy, że w rzeczywistości komputery operują głównie małymi blokami. Dlatego też przy codziennej pracy trudno zaobserwować prędkości większe od 20 MB/s. Im więcej IOPS, tym wyniki będą lepsze. Problem jest taki, że najszybszy twardy dysk średnio wykonuje 186,92 losowych IOPS i raczej nie ma perspektyw na polepszenie tego wyniku. Od czasu IBM 350 pojemność dysków wzrosła 476625 razy (4,4 MB vs 2 TB). Wydajność tylko 112 razy (1,66 IOPS vs 186,92 IOPS). Niecałe 200 IOPS przy tak dużej ilości danych magazynowanych na pojedynczym HDD to bardzo mało. Już od dawna sposobem na zwiększenie komfortu pracy z dyskiem jest wykorzystanie pamięci półprzewodnikowej. Stosuje się ją jako cache w wielu miejscach: system operacyjny, kontroler, macierz, a także w samym HDD. Odciąża ona dysk. Dzięki temu operacje na najczęściej używanych obszarach danych są wykonywane znacznie szybciej. Im więcej pamięci podręcznej tym lepsze są efekty. Ta zasada była podstawą dla powstania rozwiązań SSD – Solid State Drive, czyli pamięci masowej pozbawionej ruchomych elementów mechanicznych. My name is Solidny, Stan Solidny Dane w tego typu rozwiązaniach przechowywane są nie na materiale magnetycznym, a w pamięci półprzewodnikowej. Warunkiem, jaki musi ona spełniać, jest utrzymanie stanu komórek po odłączeniu zasilania. Dla komputera prezentują się jako zwykły twardy dysk, co sprawia, że ich implementacja jest łatwa. SSD staje się coraz bardziej popularne. Dużą zasługę w tym ma dynamiczny wzrost produkcji i sprzedaży pamięci flash. Krótko mówiąc, technologia ta stała się na tyle tania, że używanie jej jako storage jest już opłacalne. Najbardziej znaną postacią SSD są pendrive’y USB. Idealne do przenoszenia danych między komputerami. Zastąpiły zawodne i mieszczące mało danych nośniki magnetyczne (dyskietki, zipy, taśmy). Kolejnym krokiem w rozwoju Solid State Drive było zastosowanie tej technologii w komputerze jako podstawowej pamięci masowej. W tym celu powstała ich nowa forma – kości flash zamknięte w obudowie standardowego dysku 3,5″, 2,5″ lub 1,8″. Do komunikacji z komputerem wykorzystują typowe interfejsy – SATA, SAS, FC. Pamięci flash w porównaniu z magnetycznymi talerzami mają wiele zalet: brak opóźnień wynikających z ruchu elementów mechanicznych dużo większa odporność na wstrząsy, upadki itp. zdecydowanie niższy pobór prądu bezgłośna praca czas odpowiedzi mniejszy o rząd wielkości (ms vs ns) brak konieczności chłodzenia napędu Na wydajność przekłada się to w postaci rewelacyjnej obsługi losowych operacji odczytu. Problemy z pisaniem W przypadku losowych zapisów nie jest już tak kolorowo. Wynika to z konstrukcji pamięci flash. Powstała ona jako pamięć o zapisie sekwencyjnym. Jej początkowe przeznaczenie to przestrzeń na firmware’y i BIOS’y gdzie taki tryb pracy sprawdza się znakomicie. Flash nie umożliwia bezpośredniej zmiany zawartości komórek pamięci. W tym celu należy wykonać najpierw operację kasowania. Dodatkowo nie można tego zrobić na pojedynczej komórce, tylko na całym bloku (erase segment). Wyklucza to losowy dostęp dla zapisu danych. Zapewnienie takiej funkcjonalności wymaga dodatkowych zabiegów. Każdy producent SSD realizuje to w inny sposób, różnymi algorytmami i z wykorzystaniem różnych dodatkowych komponentów sprzętowych. Brak standardu występuje również w przypadku sposobów radzenia sobie z drugą wadą pamięci flash, jakim jest jej stosunkowo krótka trwałość. Operacja kasowania segmentu komórek wymaga użycia wysokiego napięcia. Twórca tej technologii porównywał to z błyskiem lampy fotograficznej (flash). Efektem takiego traktowania półprzewodników jest degradacja ich właściwości. Zależnie od typu kości, prawidłowe funkcjonowanie komórki szacowane jest na od kilkudziesięciu tysięcy do kilkudziesięciu milionów cykli kasowania-zapisu. Jest to wystarczające dla pendrive’ów wykorzystywanych jako pamięć przenośna. Bez dodatkowych mechanizmów te liczby mogą się jednak okazać za małe w przypadku przestrzeni roboczych, na których zapisy są wykonywane bardzo intensywnie. Jak poznać SSD? Pamięć masowa oparta na półprzewodnikach to ciągle nowość. Aktualnie kilkanaście firm oferuje napędy SSD. Każda z nich ma swoje pomysły na ich budowę. Nie zawsze są one dobre. Różnice w jakości i wydajności są znaczne, a wybór właściwego rozwiązania jest trudny. O ile dla dysków twardych możliwe jest obliczenie mocy produktu na podstawie jego specyfikacji, to w przypadku SSD takiej możliwości już nie ma. Jedyny sposób na poznanie możliwości konkretnego produktu to właściwie przeprowadzone testy wydajnościowe. Wynikiem takich benchmarków będzie oczywiście średnia liczba losowych operacji. Część producentów publikuję te informacje. Trudno jednak uznać ich rzetelność skoro nie wiadomo, w jaki sposób zostały one obliczone/zmierzone. Organizacja Storage Performance Council, zajmująca się testowaniem rozwiązań pamięci masowej, póki co też nie opublikowała jeszcze wyników dla SSD. W takiej sytuacji pozostaje wykonać taki benchmark samodzielnie. Uzyskanie wiarygodnych wyników jest uzależnione od prawidłowego wykonania testów. W tym celu powinny zostać spełnione następujące warunki: Przed testami cała powierzchnia SSD kilkakrotnie zapisana losowymi danymi – Jakość algorytmów odpowiedzialnych za losowy zapis i przeciwdziałających utracie danych można poznać dopiero wtedy, gdy wartość każdej z komórek pamięci flash zostanie kilkakrotnie zmieniona. Osobne testy dla odczytu, zapisu i mieszanego strumienia I/O – W przypadku HDD zapis trwa tylko odrobinę dłużej niż odczyt. Do określenia wydajności wystarcza w tym wypadku tylko jeden parametr – IOPS. Duża różnica w czasie wykonania tych operacji na urządzeniach SSD wymusza zebranie aż trzech wyników: średnia ilość losowych operacji odczytu (OPS) – 100% odczytów; średnia ilość losowych operacji zapisu (IPS) – 100% zapisów; średnia ilość losowych operacji odczytu/zapisu (IOPS) – 50% odczytów / 50% zapisów Operacje I/O wykonywane bezpośrednio na surowym urządzeniu – Testy na systemie plików (NTFS, EXT3, …) nie będą wiarygodne ze względu na cache systemowy. Każdy test powinien trwać kilka godzin – Napędy SSD to w dużej części skomplikowane algorytmy zapisane w firmware. Aby się przekonać czy działają prawidłowo dobrze jest je sprawdzić pod maksymalnym obciążeniem w długim okresie czasu. Niedopasowana wielkość operacji I/O (un-aligned I/O) – Aktualnie pamięć Flash do zapisu używa 4kB segmentów danych. Pisanie mniejszym blokiem wymusza uruchomienie algorytmu, który najpierw odczyta zawartość całego segmentu, zmodyfikuje go nowymi danymi, a na koniec zapisze w docelowym miejscu (read-modify-write). Trwa to znacznie dłużej niż zapis całego segmentu. Testy można wykonać różnymi programami. Muszą one jednak mieć możliwość: generowania zarówno sekwencyjnego jak i losowego strumienia danych regulacji stosunku operacji odczytu do zapisu ustawienia różnych wielkości operacji I/O użycia surowych urządzeń określenia współczynnika trafień w cache Wszystkie te funkcjonalności ma aplikacja Vdbench. Jest to oprogramowanie napisane w języku Java co sprawia, że można je używać w różnych systemach operacyjnych i platformach sprzętowych. Przebieg testu przedstawiany jest w sposób tekstowy, ułatwiający interpretację wyników i tworzenie wykresów. Vdbench jest dostępny na zasadach wolnego oprogramowania. Na koniec… Historia HDD rozpoczęła się ponad 50 lat temu. Dzisiaj to urządzenie powszechne. Jest obowiązkowym elementem niemal każdego komputera. Kręci się w iPod’ach, kamerach, telewizorach… Znacząca większość informacji i wiedzy ludzkości jest magazynowana i udostępniana z dysków twardych. Technologia ta cały czas się rozwija. Dotyczy to jednak jedynie pojemności. Wydajność pozostaje bez zmian już od bardzo dawna. Mimo usilnych starań marketingu i reklamy, nie da się ukryć, że dysk jest “metalową kulą u nogi” współczesnych komputerów. Rozpowszechnienie rozwiązań Solid State jest szansą na znaczne polepszenie mocy pamięci masowej. Skok w wydajności przypomina przesiadkę z kart perforowanych na IBM 350. O ile o mocy HDD wiemy praktycznie wszystko, to wokół SSD ciągle jest mnóstwo tajemnic, spekulacji, nieprawdziwych lub nieaktualnych danych. Jednocześnie są to bardzo drogie rozwiązania. Część z dostępnych aktualnie produktów wydajnością nie odbiega od dysków twardych. Czasami okazuje się, że w realnych warunkach sprawują się one nawet gorzej. Inne rozwiązania sprawdzają się z powodzeniem nawet w macierzach. Na horyzoncie pojawiają się też nowe technologie pamięci półprzewodnikowych, które z czasem zastąpią niezbyt doskonały flash. Minie jeszcze parę lat zanim ta sytuacja się ustabilizuje. Prawdopodobnie pozostanie na rynku kilka firm, których napędy będą miały porównywalną wydajność. Wtedy wybór będzie równie prosty jak dziś w przypadku HDD. Póki co, aby nie wydać niepotrzebnie pieniędzy na produkt, który nie będzie spełniał naszych oczekiwań, pozostaje nam sprawdzać wyniki opisanych testów. Aktualnie są one trudno dostępne i szczątkowe. Ta sytuacja poprawi się wraz ze wzrostem popularności SSD. Niemniej, z pewnością Solid State Drive jest właściwym kierunkiem rozwoju pamięci masowej. Marek Wołynko, ekspert ds. pamięci masowych, Netia SA wmarow@
Czy laptop ma nośniki pamięci? 2012-02-13 18:54:10; do czego służą nośniki pamięci masowej? 2010-11-07 17:47:38; jakie są popularne nośniki pamięci masowej? 2009-10-10 16:56:41; Nagrywanie gier na nośniki pamięci. 2009-07-29 23:25:41; Wymieńcie nośniki pamięci! :) 2012-05-30 16:34:51; Wymień nośniki pamięci masowej.
Twarde dyski coraz częściej stanowią wąskie gardło w systemach IT. Jednocześnie obserwujemy spadek cen pamięci flash. Dlatego w centrach danych zaczynają pojawiać się półprzewodnikowe nośniki SSD, zwiększające wydajność aplikacji czy niezawodność. Jednak koszty inwestycyjne są wciąż wysokie, a nie w każdym zastosowaniu ta technologia wypada lepiej niż HDD. Dlatego należy z rozwagą podchodzić do każdego wdrożenia. Dyski twarde w ciągu ostatnich dekad stały się wszechobecne, ale ich rola spada. Owszem, wciąż obserwujemy, że jest jeszcze przestrzeń do rozwoju technologii HDD i nie chodzi wcale o większe pojemności czy szybkość transferu, ale całkiem nowe rozwiązania. Przykładem są dyski Ultrastar HE 6 o pojemności 6 TB firmy HGST. Powietrze zastąpiono w nich helem, co według producenta pozwoliło osiągnąć 50-procentowy wzrost pojemności (dysk ma 7 talerzy), przy jednoczesnym ograniczeniu poboru prądu o 23 % i zmniejszeniu wagi o 40 %. Mimo takich nowinek architektura chmurowa i narastająca fala danych płynących z urządzeń mobilnych w połączeniu z coraz szybszymi i pojemniejszymi nośnikami SSD sprawiają, że dyski twarde postrzega się jako technologię odchodzącą w przeszłość. Z jednej strony wymagania dotyczące bardzo szybkiego dostarczania danych w środowiskach chmurowych stawiają technologię SSD jako kandydata do budowania korporacyjnych macierzy. Z drugiej strony, nośniki flash są bardzo przydatnym dodatkiem do klasycznych dysków twardych. Taki tandem pozwala na budowanie bardzo skalowalnych rozwiązań macierzowych. Wprowadzenie technologii Solid-State umożliwia wyposażenia macierzy w bardzo szybki cache czy mechanizmy typu data off-load. Daje to organizacjom nieosiągalne dotychczas możliwości w zakresie tworzenia wielowarstwowych środowisk, którego mogą być automatycznie dostosowywane do bieżących wymagań wydajnościowych i pojemnościowych. Zobacz również:Nowe dyski do serwerów trafiają na rynek - mają 22 TB pojemności Niewielka część przedsiębiorstw, które będą analizować duże zbiory danych (Big Data), będzie wymagać pełnej dostępności do najszybszych rozwiązań. Jednak z reguły organizacje, które optują za rozwiązaniami SSD, przeinwestują, ponieważ nie będą w stanie w pełni wykorzystywać możliwości tych nośników. Dane nie są takie same Błędem, który popełniają orędownicy SSD jest założenie, że wszystkie dane są takie same. Owszem, obecny przyrost ilości danych jest generowany głównie w procesach obsługi usług internetowych i transakcyjnych, ale nie jest to pełen obraz współczesnego środowiska danych. Świetnym przykładem nierówności między zbiorami danych jest cyfrowy monitoring wideo. W agencjach rządowych, urzędach, bankach czy biurach 24 godziny na dobę rejestruje się obraz z newralgicznych miejsc, co generuje popyt na duże przestrzenie dyskowe, nawet przy stosowaniu kompresji, deduplikacji i innych technik ograniczających ilość danych. Jeśli już średniej wielkość organizacja potrafi wygenerować petabajt nagrań z monitoringu, nie ma mowy o zastosowaniu tutaj nośników SSD czy przechowywaniu w chmurze publicznej. Dlatego przed inwestycją w macierz SSD należy sobie odpowiedzieć na pytane, czy kilkudziesięciokrotny wzrost wydajności przyniesie skalę korzyści uzasadniającą duże nakłady inwestycyjne. Dobra wiadomość jest taka, że zróżnicowanie nośników i stały napływ nowych, zintegrowanych platform dyskowych łączących różne techniki przechowywania danych daje organizacjom duże pole do manewru w zakresie optymalizacji ich środowiska pamięci masowych. Cztery scenariusze Flash jako pamięć masowa może być zastosowana nie tylko w macierzach. Architekci systemów przechowywania danych wymyślili różne sposoby na zwiększenie wydajności aplikacji poprzez implementację tej technologii. Warto je zrozumieć, aby móc samodzielnie ocenić poszczególne opcje. Pomijając specyficzne rozwiązania, jak IBM FlashSystem, nośniki flash występują w trzech podstawowych formach: nośniki SSD - kształtem obudowy przypominają twardy dysk, ale wewnątrz nie ma ruchomych części. SDD emuluje działanie HDD, co pozwala łatwo włączyć ten rodzaj pamięci masowej do istniejących systemów serwerowych i macierzowych, bez stosowania specjalistycznych PCIe - montowane w standardowych gniazdach w serwerach bądź macierzach czy kontrolerach macierzowych. Emulują zachowanie tradycyjnych kart pamięci, wykorzystując sterownik cache jako SSD - aby skomplikować sytuację, niektóre karty PCIe emulują napędy SSD. Poza kwestią ceny i nietypowego formatu to podejście powoduje też inne implikacje, jak dostępność kart typu hot-swap. Jest kilka sposobów wykorzystania tych „klocków” w serwerach i macierzach. Wybrane podejście determinuje, gdzie w infrastrukturze zostanie wykorzystana pamięć flash i jakie korzyści przyniesie aplikacjom. Są cztery sposoby umiejscowienia pamięci flash. Flash jako cache w serwerze W tym scenariuszu flash jest podłączony do korporacyjnego systemu przechowywania danych jako pamięć cache przechowująca aktywne dane blisko procesorów serwerowych. Wymaga to zaawansowanego oprogramowania pamięci cache, ale pozwala przekształcić nośniki SSD bądź karty PCIe w rozszerzenie pamięci cache. Przykładowo, takie rozwiązanie może służyć do obsługi krytycznych aplikacji, które charakteryzują okazjonalnymi, nieprzewidywalnymi wzrostami obciążenia, np. systemy transakcyjne OLTP czy rozwiązania do analityki danych. Wprawdzie w ten sposób uzyskuje się najszybszy dostęp do danych w pamięci cache, ale wiąże się to jednocześnie z koniecznością dodatkowego zarządzania serwerem. Flash jako cache w macierzy Zamiast montować pamięć flash w serwerze, można ją podłączyć bezpośrednio do macierzy i jednocześnie zainstalować oprogramowanie do tieringu. Takie podejście wprowadza dodatkową warstwę pamięci masowej, do której zostaną automatycznie przeniesione z dysków twardych najczęściej używane dane. Jest to świetny sposób na zwiększenie szybkości odczytu danych przez wszystkie serwery mające dostęp do macierzy dyskowej. Wprawdzie opóźnienia będą większe niż w przypadku użycia pamięci flash w serwerze, ale za to nie będzie problemu z czyszczeniem pamięci podręcznej w momencie restartu serwera. Ta metoda przyspiesza odczyt, natomiast zapis może być wolniejszy niż na dyskach HDD, ponieważ zapisywanie na nośnikach flash wymaga przeprowadzenie mało wydajnego cyklu kasowania. Należy też zwrócić uwagę na dobranie odpowiedniej wielkości nośnika flash, w przeciwnym razie może się on szybko zapełnić.
iwbcw. 99 441 235 430 465 0 323 273 82

dlaczego nośniki pamięci masowej mają coraz większe pojemności