Компютърен Хардуер

Големите данни изискват и бързи дискови системи

Владимир Владков

Продължаващото нарастване на обемите от данни, появата на софтуерно дефинирани системи за съхранение, разпространението на облачните технологии и флаш дисковете принуждават ИТ специалистите да адаптират мрежовата инфраструктура на системите за съхранение на данни към новите изисквания, да подобрят съществуващите и да разработят нови, по-ефективни интерфейси и протоколи.

Живеем в епоха на постоянен ръст на обема на генерираните и обработваните данни, различни по своя формат и други характеристики. Един полет със самолет Боинг създава повече информация, от тази, която се съхранява в библиотеката на щатския Конгрес. Наред с растящия обем корпоративни данни основни двигатели на пазара за съхранение стават внедряването на флаш дискове и виртуализацията на сървърите.

Според анализаторите, през 2019 г. разходите за технологии за цифрова трансформация на бизнеса в целия свят ще достигнат 2,1 трилиона долара, увеличавайки се ежегодно с почти 17% за периода 2014 – 2019 г. IDC очаква, че броят на предприятията, реализиращи проекти за цифрова трансформация, ще се удвои до 2020 г. (от 22% днес до почти 50%), но засега едва 27% от компаниите имат стратегия за цифрово обслужване на потребителите. За прехода към цифрово предприятие са нужни нови технологии, в частност за съхранение на данни, макар че са необходими универсални платформи, способни да решават широк спектър от задачи, тъй като ИТ отделът не може постоянно да се занимава с избора на системи за конкретна задача, да обслужва разнородна техника, непрекъснато да въвежда в експлоатация поредния тип оборудване и да спира остарелите машини. Системите за съхранение трябва да са с възможно най-голям капацитет и да осигуряват голяма надеждност - в цифровата ера бизнесът зависи директно от информацията, чиято загуба е недопустима. Производителността също трябва да е голяма: нужно е мигновено да се анализира и реагира на получените сведения, за да се удовлетворят заявките на клиентите. В условията на широк избор от системи за съхранение и унификация винаги е възможно преминаване към друг доставчик, затова първоначалната цена и прогнозната експлоатационна стойност на решението интересуват и бизнеса, и ИТ отделa.

За да се използват по-ефективно данните като ресурси, да има възможност за извличането на полезна информация от данни, намиращи се на различни носители и устройства, интерфейсите на системите за съхранение и мрежовите комуникации трябва да осигуряват необходимата производителност. Освен това достъпът до данните трябва да е не само бърз, а и сравнително евтин.

В света на системите за съхранение технологиите за пренос на данни са една бурно развиваща се област, както и технологиите за носителите, на които тези данни се записват. През тази година се очакват още по-големи скорости (вж. табл. 1). Цикълът на разработката на нови стандарти обикновено е около 3-4 години.

Таблица 1. Скорости за преноса на данни на най-разпространените интерфейси в дисковите системи и мрежите за съхранение

Интерфейс

Gbps (2015 г.)

Gbps (2016 г.)

Fibre Channel

16

32

FCoE

10

25

InfiniBand

56

100

iSCSI

10

25

SAS

12

12

SATA

6

6

USB

5

5

Thunderbolt

20

20

За какво става дума? За интерфейсите за свързване на системи за съхранение: Fibre Channel (FC), iSCSI, FCoE, NVMe и NVMe over Fabrics. За „транспорта“: протоколите за пренос на данни FC, Ethernet, InfiniBand, SAS (вж. табл. 2). Както и за вътрешните интерфейси в системите за съхранение, т.е. за интерфейсите за свързване на дискове и флаш памети: SATA, SAS и NVMe.

Таблица 2 Сравнение на протоколите в мрежите за съхранение на данни

Транспорт

InfiniBand

Ethernet/RoCE

Ethernet/TCP

FCoE

FC

Скорост в Gbps

40/56/100

10/40/100

10/40/100

10/ 40

8/16/32

Поддръжка на RDMA

Да

Да

Не

Не

Не

Маршрутизация

Да

Да

Да

Не

Не

Използване на процесора

малко

малко

голямо

средно

средно

Както се вижда от табл. 1, през тази година се осъществява миграция към нови стандарти, според които ще се създава съответната инфраструктура, включваща софтуер, контролери, мрежови интерфейси и физическа преносна среда - кабели и конектори.

Следва: Има ли бъдеще Fibre Channel?


Има ли бъдеще за Fibre Channel?

Според Михаил Коган, технически директор на израелската компания Mellanox, FC няма никакво бъдеще. С него обаче може да се спори. Технологията FC (вж. Фиг. 1) продължава активно да се развива. Приет е стандартът FC Gen6 със скорост на преноса на данни от 32 Gbps, продължава и работата над неговото разширение за поддръжка на 128 Gbps.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 1. По прогнози на IDC в следващите години Fibre Channel ще остане най-разпространеният протокол в мрежите за съхранение по капацитет на свързаните външни системи (в хиляди петабайти). Очаква се, че до 2018 г. общият капацитет на системите за съхранение с FC ще представлява около 38% от сумарния капацитет на дисковите системи на пазара.

Строго погледнато, Fibre Channel Gen6 е FC със скорост на преноса 32 и 128 Gbps. Последният вариант се базира на същата технология за FC 32 Gbps и се отличава само по паралелната конфигурация (паралелен 4-канален интерфейс). Комисията T11 даде на проекта името FC-PI-6P. За FC 32 Gbps се ползва конектор 25/28G SFP+. За FC 128 Gbps вероятно ще се ползва съединител QSFP+, но е възможна и поддръжка на конектори CFP2 или CFP4. Очаква се първите комутатори Gen6 да се появят още през тази година. Проектът FC-PI-7 предполага разработка на стандарти FC с още по-големи скорости - 64 и 256 Gbps.

Определено в обозримо бъдеще Fibre Channel ще запази своите позиции като основна технология в SAN, още повече, че в инфраструктурата FC са вложени големи средства. С времето може да се появят негови по-силни конкуренти. А на ниво свързване на дискове интерфейсът Fibre Channel може да бъде „притеснен“ от SAS на 12 Gbos (тази технология позволява използване на всички предимства на шината PCIe 3.0).

Същевременно се разработва спецификация за интерфейса SAS на 24 Gbps: съответните компоненти могат да се появят през 2017 г., а първите продукти - през 2018 г. Очаква се, че финалните версии на този интерфейс ще използват технологията PCIe 4.x.

Относно FCoE (FC-BB-6) можете да чуете различни прогнози. Тази технология за свързване на системи за съхранение умря, без да полети. Тази тема е затворена, смята мениджър в Brocade. Но по оценки на IDC, в следващите няколко години по общ капацитет на свързаните външни дискови масиви тази технология ще се конкурира с InfiniBand, но все пак няма да получи очакваното широко разпространение. FCoE работи върху Ethernet и може да се ползва в качеството на интерфейс между мрежи FC и Ethernet. Трябва да отбележим, че като протокол FCoE е непопулярен, тъй като не е маршрутизируем и се налага инсталиране на специални комутатори.

През август 2014 г. комисията T11 завърши работа над стандарта FC-BB-6. Използваната в него архитектура VN2VN позволява свързване на възли FCoE (Virtual N_Ports) без комутатори FCoE, което опростява изграждане на неголеми мрежи. Освен това благодарение на подобрената мащабируемост (Domain_ID Scalability) матриците FCoE могат да обслужват големи SAN инфраструктури. Близката перспектива е преход към FCoE със скорости 40 и 100 Gbps. Но FCoE едва ли ще „полети“ по-нависоко.

Съвсем друго нещо е вездесъщият Ethernet. Стандартите IEEE 802.3ba (Ethernet на 40 и 100 Gbps) бяха ратифицирани през юни 2010 г., а съответните продукти вече са на пазара. Тези технологии, както и по-новите версии 25GbE и 50GbE, както и 2.5GbE, 5GbE и FC, са представени доста добре в специализираната преса. Много по-рядко се пише за технологията InfiniBand, макар че тя отдавна и успешно се прилага от редица производители и има свои достойнства.

Следва: InfiniBand, RDMA и другите


InfiniBand, RDMA и другите

InfiniBand не е толкова популярна технология като FC и Ethernet, но тя успешно се развива, преуспяват и специализираните в тази област компании. Показателен пример е Mellanox, чийто оборот расте с 30% годишно. Компанията пуска софтуер, оптични и медни кабели, мрежови карти и комутатори InfiniBand от 12 до 648 порта. Последните са предназначени за създаване на изчислителни клъстери. Такива клъстери имат известната платежна система PayPal, на InfiniBand (IB) са изградени и системите Oracle Exadata и IBM XIV.

На всеки 2,5 г. компанията Mellanox удвоява скоростта на своите мрежови решения и разширява тяхната функционалност. Тя вече предлага решения за 100 Gbps (от кабели и адаптери до софтуера): адаптери с поддръжка на RAID, включително с разпределение на RAID по различни възли, комутатори IB и Ethernet, медни и оптични кабели. В края на 2017 г. компанията се надява да изкара на пазара решения за изграждане на терабитова мрежа.

В продуктите InfiniBand EDR (Enhanced Data Rate) със скорост 100 Gbps се ползват същите конектори 25/28G SFP+, които се ползват и в Ethernet, и във Fibre Channel. През 2017 или 2018 г. се очаква появата на технологията InfiniBand High Data Rate (HDR) със скорост 200 Gbps. Вероятно хост адаптерите HDR ще са проектирани за слотове PCIe 4.0.

InfiniBand е известна преди всичко като технология за клъстерен интерконект. Тя се характеризира с голяма скорост и малко времезакъснение, а сред недостатъците й са високата цена и сложната инфраструктура. При високопроизводителни изчисления (HPC) и други специализирани решения намира приложение още една технология, непосредствено свързана с InfiniBand и поддържаща именно IB - това е Remote Direct Memory Access (RDMA).

В далечните вече 90 години на миналия век проблемът с натоварването на процесора при входно/изходни операции бе решен с помощта на процедури за пряк достъп до памет (Direct Memory Access, DMA). Функции за работа с подсистемата за вход/изход бяха предадени на специален контролер DMA. Но DMA са локални вътрешносистемни операции. За логическото им продължение се наложи създаване на „мрежова“ версия.

В края на 90-те организацията InfiniBand Trade Association предложи технологията RDMA. Разработена за InfiniBand и адаптирана за Ethernet, тя дава възможност на приложение, намиращо се в един възел, да се обръща към ресурси в друг възел без участие на централните процесори на двата възела (вж. Фиг. 2). За работа с изпращача и получателя на данните и тяхната проверка в хода операциите отговаря мрежов адаптер.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 2. Процесорът на възела на получателя е длъжен да провери постъпващите данни и да ги изпрати към приложението на адресата. Тази работа може да се възложи на адаптера. В случая с RDMA преносът на данни чрез мрежовият адаптер се управлява от приложение. За разлика от TCP/IP процесорът не участва в операциите (по данни на Mellanox)

И защо пак RDMA? С появата на флаш дискове, облаци и софтуерно дефинирани системи за съхранение на данни (SDS) тази новина от 1998 г. получи „втори живот“.

И ако времето за достъп до HDD се характеризира с милисекунди, то за SSD то е десетки микросекунди, или 100 пъти по-бързо. Както се очаква, новите технологии за паметта, разработени от Intel и Hewlett-Packard Enterprise, увеличават скоростта на достъпа още с два порядъка. През последните десетилетия тя е скочила 10 хиляди пъти (вж. Фиг. 3).


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 3. През последното десетилетие благодарение на съвременните технологии скоростта на достъпа скочи 10 000 пъти – в сравнение с употребата на традиционни твърди дискове (по данни на Mellanox)

Ако трябва да се обръщаш към всеки носител през мрежата, трябва да се ползват протоколи с минимален административен товар (overhead). И тук на помощ идва RDMA.

Навремето заради проблеми при реализацията употребата на RDMA се ограничаваше до системи HPC. Днес обаче има нови възможности. С помощта на RDMA можете да се обръщате към SSD през мрежата със същата скорост, както и към локалния диск (вж. Фиг. 4). В RDMA липса многократно междинно копиране на данните при техния пренос между изпращач и получател.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 4. По скорост на достъпа мрежовата технология RDMA 56 Gbps е съпоставима със скоростта на достъпа до локалната памет

Следва: Версии на RDMA


Версии на RDMA

На базата на RDMA са създадени редица интересни протоколи и разширения. Например iSER (iSCSI Extensions for RDMA) е разширение на iSCSI за работа през мрежа RDMA. iSCSI е популярен и активно се развива благодарение на увеличаване скоростта на Ethernet, но не е много подходящ за задачи, при които са необходими малки времезакъснения, а с увеличаване мащаба на системата могат да възникнат проблеми при управлението. В iSER цялата логика за управление и осигуряване на надежден пренос на данни е базиран на стандарта iSCSI, а при операции за четене/запис и пренос на данни се използва RDMA.

Версиите на RDMA на базата на InfiniBand и на Ethernet се различават по методите на управление на мрежата. За приложенията те са прозрачни: ако се поддържа една от тези версии, ще се поддържа и другата. Разликата е в в управлението на мрежата.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фис. 5. Изграждане на хиперконвергенет ЦОД на базата на RDMA. Интелигентната мрежа RoCE (RDMA over Converged Ethernet) разтоварва процесорите от изпълниенито на приложенията (по данни на Mellanox)

Какво става на практика? Разтоварването на процесора от задачите по управление на мрежата позволява създаването на хиперконвергентни ЦОД (Вж. Фиг. 5). Такъв ЦОД се състои от еднакви възли - стандартни сървъри и системи за съхранение. Във виртуализираща среда Microsoft Hyper-V с помощта на RDMA скоростта на „живата миграция“ на виртуалните машини може да се увеличи с един порядък (вж. Фиг. 6). Всичко става толкова бързо, че работещите във виртуалната машина приложения дори няма да го забележат, твърдят специалисти. Важното е, че такава миграция не изисква и не хаби ресурсите на процесорите и на двата физически сървъра“.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 6. С помощта на RDMA „преходът“ на виртуалната машина от един сървър на другия става 10 пъти по-бързо и не се изискват ресурси от процесора

На базата на RDMA са създани редица интересни протоколи и разширения. Например iSER (iSCSI Extensions for RDMA) - това е разширение на iSCSI за работа през мрежи RDMA. iSCSI е много популярен и активно се развива благодарение на увеличаващата се скорост на Ethernet, но не е много подходящ за задачи, при които се изисква малко времезакъснение, а с увеличаване на мащаба на системата могат да възникнат проблеми с управлението й. При iSER цялата логика за управление и осигуряване на надежден пренос на данните е базирана на стандарта iSCSI, а при операции за четене/запис и пренос на данни се използва RDMA.

iSER се смята за най-ефективния мрежов протокол SCSI: версията iSCSI с транспорт през RDMA работи върху Ethernet (вж. Фиг. 7) или InfiniBand 10, 25, 40, 50, 56 и 100 Gbps и се поддържа от всички стандартни приложения. Това е стандарт IETF. Преимуществата на iSER са висока производителност (пропусквателна способност, IOPS и малко закъснение), ниско натоварване на процесора, използване на средствата за управление iSCSI.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 7. Технологията Ethernet бързо еволюира. Масово се използва 40GbE. Върху Ethernet работят много протоколи, включително iSCSI, iSER и FCoE. RDMA позволява да се намали времезакъснението. Започва да се налага технологията NVMe over Fabrics (по данни на RAIDIX)

iSER е подходяща за поддръжка на бази данни, виртуални среди, облачни услуги и уеб приложения. Този протокол позволява данните да се предават в буфер SCSI и от него, без да се налага многобройни междинни копирания. Освен това се решава проблемът с фрагментацията TCP, която увеличава закъснението заради необходимостта от подреждане на пакетите за получателя (те могат да идват в произволен ред). В iSER вместо обичайния способ за капсулиране в TCP са задействани възможностите на RDMA.

Използвайки логиката за управления на iSCSI и прилагайки RDMA в операциите четене и запис, потребителите получават висока скорост на услугите за данни във виртуална среда. Например iSER ползва VMware (вж. Фиг. 8). Благодарение на iSER може тройно да се увеличи плътността на средата VDI (броят на виртуалните машини на един сървър) в сравнение с iSCSI over TCP. Протоколът iSER се поддържа в много операционни системи. През 2016 г. се очаква поддръжка на iSER в Windows Server 2012. Той се използва и от редица производители на системи за съхранение, в частност HPE (дисковите масиви SL4500), NetApp (E-Series), Violin, Oracle (ZFS).


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 8. VMware използва протокола iSER в своите услуги за съхранение на данни.Това позволява да се увеличи на порядък пропусквателната способност и 3–4 пъти IOPS при обмена на данни между VM и системата за съхранение. В среда VDI прилагането на iSER дава възможност три пъти да се повиши плътността на виртуалните машини в сървъра в сравнение с конфигурацията, в която се ползва iSCSI/TCP (по данни на Mellanox)

Следва: Протоколът Microsoft SMB Direct.


Още един интересен протокол е Microsoft SMB Direct. За разлика от блоковия протокол iSER, това е файлов протокол. SMB Direct на базата на RDMA позволява 5-кратно повишаване на производителността в сравнение с 10GbE (вж. Фиг. 9).


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 9. Използването в SMB Direct на транспорт RDMA дава възможност да се намали натоварването на централния процесор и да се ускори работата на Hyper-V и SQL Server

А прилагането на още едно разширение — протоколът RoCE (RDMA over Converged Ethernet) с 40GbE в Windows Asure Storage дава на Microsoft възможност да се икономисат немалко изчислителни ресурси (вж. Фиг. 10).


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 10. Използване в SMB Direct на протокола RoCE вместо TCP позволява двукратно увеличаване на пропусквателната способност и и да се намали натоварването на централния процесор

Мрежата RoCE и намаленото натоварване на централния процесор за сметка на RDMA (RDMA Offload) позволява създаването на по-ефективни хиперконвергентни ЦОД и инфраструктури SDS (вж. Фиг. 11). В последния случай софтуерът на SDS осигурява достъп до приложения на един възел до системата за съхранение на който и да е друг възел. Ресурсите за съхранение на данни на различните възли образуват единен пул за съхранение, достъпен за приложенията. На този принцип работи например ЦОД Microsoft Azure. Локалните ресурси за съхранение на възлите не са „закотвени“ към процесора на възела.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 11. Традиционната хоризонтално мащабируема архитектура за съхранение и хиперконвергентната архитектура. Първата се характеризира с разделяне на нивата за съхранение и за изчисления, свързване на софтуера към оборудването (примери: EMC Isilon и XtremIO, IBM XIV). Във втория случай всеки сървър съдържа изчислителни ресурси и ресурси за съхранение; обикновено се използват подход SDS (Softwasre Defined Storage). Примери: EMC ScaleIO, VMware VSAN, Maxta, Nutanix, SANbolic.

Следва: За технологиите NMVE и NMVE over Fabrics


NMVE и NMVE over Fabrics

През последните 10 г. производителността на процесорите скочи 10 пъти, оперативната памет — 8 пъти, мрежите - 100 пъти, вътрешната шина - 20 пъти, а дисковете – само 1,5 пъти. Ситуацията би трябвало да се подобри че флаш паметта. За работа с такива носители са разработени нови протоколи и технологии, разкриващи потенциала на интерфейса PCIe.

Една от тези технологии е Non-Volatile Memory Express (NVMe). Тя позволява премахване на значителното закъснение в оборудването и администрирането на протоколите, свързани със съхранението. Тя може да се ползва за повишаване на общата производителност на системата, особено в такива ресурсоемки задачи като виртуализация, Големите данни и високопроизводителните изчисления. С помощта на NVMe се получава достъп до флаш паметта, заобикаляйки слоя SCSI, а това икономисва няколко микросекунди от времето за достъп, особено при хардуерна поддръжка на NVMe (функцията на драйвер се реализира на хардуерно ниво).

Таблица 3. Сравнение на дискове SSD с интерфейс NVMe и SSD със SAS и SATA (по данни на Supermicro)

Сравнение

Мярка

NVMe SSD

SATA3/SAS3 SSD

Предимство на NVMe

Пропусквателна способност в сравнение със SATA3

128K (последователно четене на блокове)

2788,77 MB/s

470,6 Mbps

5,93x

128K (последователен запис на блокове)

1838,98 MB/s

453,33 Mbps

4,06x

Пропусквателна способност в сравнение със SAS3

128K (последователно четене на блокове)

2788,77 MB/s

980,34 MB/s

2,84x

128K (последователен запис на блокове)

1838,98 MB/s

421,25 MB/s

4,37x

Закъснение в сравнение със SATA3

128K (последователно четене на блокове)

15,9 микросек.

47,3 микросек.

2,97x

128K (последователен запис на блокове)

17,6 микросек.

51,4 микросек.

2,92x

Закъснение в сравнение със SAS3

128K (последователно четене на блокове)

15,9 микросек.

114,1 микросек.

7,18x

128K (последователен запис на блокове)

17,6 микросек.

109,8 микросек.

6,24x

Според данните на Supermicro, в сравнение с твърдотелни дискове SSD SAS 3.0 сървърите, поддържащи NVMe, осигуряват до 7 пъти по-малко времезакъснение при достъпа до SSD, а пропусквателната способност нараства до 6 пъти (вж. Табл. 3). Supermicro позиционира такива сървъри като решения за високопроизводителни изчисления HPC, нефтената индустрия, 3D моделирането, графичния дизайн, VDI, виртуализация, облачни изчисления и други ресурсоемки приложения.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 12. Производителността на NVMe при произволно четене и запис на блокове 4K в IOPS в сравнение със SAS и SATA. Резултатите са показани за четене, смесени операции (70% четене, 30% запис) и запис (по данни на SNIA)

NVMe позволява повишаване производителността на системата (вж. Фиг. 12) за сметка на по-пълно използване на паралелизма на устройствата и програмното осигуряване. Същността на технологията е в това, че дисковете са „по-близо“ до процесора. Това дава възможност да се намали времезакъснението от 2031 на 86 микросекунди (над 20 път), обясняват от RAIDIX (вж. Табл. 4).

Таблица 4. Бъдещето е на NVMe, твърдят от компанията RAIDIX

Днес

Утре

SATA 6G

NVMe

SAS 12G-24G

NVMe

SCSI

NVMe

FC 8G/16G-32G

NVMe over Fabrics

Ethernet 10G – 40G

100G

Освен това през 2016 - 2017 г. се очаква появата на стандарта NMVe over Fabrics (NVMeF). Неговата задача е да осигури ефективен отдалечен достъп на хоста до устройствата NVMe чрез комутираща матрица (т.е. през мрежа), при това с производителността при работа с локални устройства NVMe. Производителността на създадените днес прототипи на устройства e 450K IOPS при работа с локални и отдалечени устройства NVMe PCIe, а при отдалечен достъп закъснението се увеличава незначително.


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 13. NVMe over Fabrics осигурява ефективността NVMe при работа с външни и вътрешни комутационни матрици (по данни на OpenFabris Alliance)

Стандартът NVMe over Fabrics (вж. Фиг. 13) се разработва чрез реализация на цялата функционалност на NVMe върху Ethernet. Както и NVMe, той поддържа RDMA. NVMe over Fabric може значително да подобри производителността на мрежата за съхранение на данни и днес се разглежда като перспективен протокол за SAN. В тази област той може да измести iSCSI, FCoE, FC и InfiniBand, а в перспектива дори традиционния Fibre Channel. Всичко зависи от поддръжката, която ще поличи от бранша. Възможно е по-нататъшно развитие на версиите NVMe over FC и на NVMe over Ethernet. Освен това той може да стане конкурент и на iSER (вж. Фиг. 14).


Големите данни изискват и бързи дискови системи

© Владимир Владков, Computerworld.bg

Фиг. 14. Сравнение на iSER и предстандартна реализация на NVMe over Fabrics. Някои доставчици (например компанията Mangstor) вече се пускат на пазара решения за 40GbE

Днес Fibre Channel е де факто стандарт за изграждане на големи мрежи за съхранение на данни. За това съдействат редица характеристики, които правят FC най-подходящият протокол за пренос на трафика в системите за съхранение: висока скорост, малко закъснение, механизми за контрол на пращането на пакети без загуби, възможност за пренос на данни на големи разстояния. Но по данни на Dell’Oro Group, през последната година продажбите на продукти FC в световен мащаб са се свили с 3%.

Същевременно през декември 2015 г. QLogic и Brocade демонстрираха мостри на продукти NVMe over Fabrics, в които се използва фабрика Fibre Channel (FC-NVMe). Очаква се, че NVMeF може да стане водещ протокол за работа с флаш масиви. Ще очакваме как ще се развият събитията в тази динамична област.

Мащабируемата технология NVMe се разработва специално за директно свързване на устройства NVMe (твърдотелни дискове SSD) през PCIe Gen3. Тя осигурява бърз достъп на процесора до данните във флаш паметта и се характеризира с висока производителност в IOPS, малко енергопотребление и малко времезакъснение. Доставката на първите продукти NVMe започна през 2014 г. През 2015 г. много доставчици на сървъри представиха свои платформи със слотове NVMe.





© Ай Си Ти Медиа ЕООД 1997-2019 съгласно Общи условия за ползване

X