1. Gigalight ЗаједницаПочетна
  2. блогови
  3. Технологије

Зашто већина ХПЦ система користи инфиниБанд интерконекцију

Поред добро познатог Етхернета, постоје и многе друге категорије мрежне архитектуре. За сценарије повезивања на страни сервера, ИнфиниБанд (ИБ) технологија се вреднује и користи за своје инхерентне карактеристике. Има скоро доминантан положај, посебно у компјутерима високих перформанси (ХПЦ), великим складиштима података и другим сценаријима. Која је разлика између ИБ и Етхернет? Зашто већина ХПЦ система користи ИБ интерконекцију?

Шта је ИнфиниБанд и где се користи

ИБ је технологија „пребацивања каблова“ која подржава вишеструке истовремене везе, а то је И / О стандард нове хардверске платформе нове генерације. Са брзим развојем перформанси процесора, перформансе И / О система су постале уско грло које ограничава перформансе сервера. Архитектура ПЦИ сабирнице која се користила у прошлости није у складу са новим трендом апликације. Да би се превазишли инхерентни недостаци ПЦИ-ја, Интел, Цисцо, Цомпак, ЕМЦ, Фујитсу и друге компаније заједнички су лансирали ИБ архитектуру, чија је језгра раздвајање И / О система од хост сервера. Тренутно само неколико компанија, као што су Мелланок, Интел, Клогиц, могу пружити ИБ производе. Мелланок је на водећој позицији. Недавно су поставили први ХДР КСНУМКСГ ИнфиниБанд суперкомпјутер на Универзитету Мичиген.

Основни протоколи ИнфиниБанда

Основни протоколи ИнфиниБанда


Горња слика приказује основне протоколе ИБ-а. Као што видимо, ИБ протоколи усвајају хијерархијску структуру, укључујући горњи протокол, транспортни слој, мрежни слој, слој везе и физички слој. Сваки слој је независан један од другог, а доњи слој пружа услуге за горњи слој, који је сличан ТЦП / ИП протоколу. За разлику од Етхернета, који се користи у мрежној комуникацији на високом нивоу, ИнфиниБанд се углавном користи у ниским нивоима улаза / излаза комуникацијских сценарија. Као што је поменуто на почетку овог чланка, ИБ архитектура има мисију побољшања перформанси улаза / излаза на страни сервера, чак и ако Етхернет постигне или прекорачи брзину ИБ мреже, ИБ је незамјењива под условима ниске мрежне комуникације. Поред тога, ИБ-ов режим преноса и медији су прилично флексибилни. Може се пренијети бакарном жичаном фолијом тискане плочице у опрему, и међусобно повезати ДАЦ или АОЦ између опреме.

Као што је Билл Лее, копредсједавајући радне групе ИнфиниБанд Индустри Ассоциатион, рекао: „Циљ ИнфиниБанда је побољшање комуникације између апликација.“ ИБ технологија не укључује само чипове и хардвер, већ и софтвер. Да би се одиграла одговарајућа улога, хардвер и софтвер морају бити потпуно интегрисани у оперативни систем, слој управљања и апликације.

Зашто ХПЦ Дата Центерс изабрати ИнфиниБанд

Аддисон Снелл, извршни директор компаније ИнтерсецтКСНУМКС Ресеарцх, истакао је да је „ИнфиниБанд нарастао и сада је пожељно рјешење за интерконекцију високих перформанси у ХПЦ системима. Тренутно, апликације високе пропусности података као што су анализа података и стројно учење брзо се шире, а потражња за високом пропусношћу и интерконекцијом с малим кашњењем се шири и на шире тржиште. ”

Очигледно је да је наш главни правац у садашњости иу будућности решити проблеме науке и анализе података, што захтијева врло високу пропусност између рачунарских чворова, система за складиштење и анализу у нашем центру за податке, чиме се формира једно системско окружење. Осим тога, латенција (латенција за меморију и диск приступ) је још једна мјера перформанси ХПЦ-а. Дакле, разлог због којег центри ХПЦ података одабиру да користе ИБ мрежу јесте то што може задовољити захтеве високог пропусног опсега и ниске латенције.

ИБ је тренутно пожељна интерконекција између ХПЦ и АИ инфраструктуре, а брзина се такође повећава, од СДР, ДДР, КДР, до ХДР. Чувено Мелланок ИнфиниБанд решење повезује већину Топ КСНУМКС суперрачунара, а они ће такође почети да планирају НДР КСНУМКСГ ИнфиниБанд технологију како би подржали будуће Е-левел суперкомпјутере и платформе за машинско учење. У погледу кашњења, РДМА (Ремоте Дирецт Мемори Аццесс) технологија нам омогућава приступ подацима директно и даљински кроз мрежу, и може ријешити проблем кашњења обраде података на страни сервера у мрежном пријеносу. РДМА преноси податке директно на простор за складиштење рачунара преко мреже, брзо преноси податке из једног система у удаљену системску меморију, остварује Зеро Цопи, ослобађа ЦПУ оптерећење на страни хоста и смањује кашњење обраде података у хосту од стотине микросекунди до наносекунди.

Поред тога, ИБ има предности једноставног протокола протокола, високе ефикасности обраде и једноставног управљања. За разлику од хијерархијске топологије Етхернет-а, ИнфиниБанд је равна структура, што значи да сваки чвор има директну везу са свим другим чворовима. У поређењу са ТЦП / ИП мрежним протоколом, ИБ користи механизам заснован на повјерењу и контролу протока како би осигурали интегритет везе, а пакети података ретко се губи. Након преноса података, пријемник враћа сигнал како би указао на доступност пуферног простора. Због тога протокол ИБ елиминише кашњење ретрансмитирања због губитка оригиналних пакета података, чиме се побољшава перформансе протокола. Ефикасност и укупни учинци су побољшани. Осим тога, с обзиром на проблем дисторзије сигнала у ултра-високој брзини оптичког преноса, ИБ преноси сигнале података различито у оптичком влакну и додаје филтер на пријемном крају како би филтрирао сигнални шум, што у потпуности гарантује интегритет сигнала мреже за повезивање.

Zakljucak

ИнфиниБанд је јединствена интерконекцијска структура која може да се носи са И / О меморијом, мрежним И / О и интерпроцесс комуникацијом (ИПЦ). Омогућава међусобно повезивање дискова, САН-ова, ЛАН-ова, сервера и кластерских сервера, обезбеђује пренос велике брзине преноса и преноса са ниском латенцијом на релативно кратким растојањима и подржава редундантне И / О канале у једној или више интернетских мрежа, тако да центри за пренос података и даље функционишу када локални појављују се неуспеси. Посебно у будућности, када се интерни саобраћај ХПЦ података центра драматично повећава, ИнфиниБанд ће имати шири развојни простор као мрежну технологију која се примјењује између сервера.

Ово је оригинални чланак који је написао Gigalight. Ако се репродукује, молимо наведите извор: хттпс://ввв.гигалигхт.цом/цоммунити/вхи-мост-хпц-системс-усе-инфинибанд-интерцоннецтион/

Контакт

Емаил: сунвф@гигалигхт.цом