IBM 750 and RAID 1


Главная Форумы POWER Systems AIX/Hardware IBM 750 and RAID 1

В этой теме 26 ответов, 8 участников, последнее обновление  byldozer 6 года/лет назад.

  • Автор
    Сообщения
  • #14027

    admin4k admin4k
    Участник

    Добрый вечер, подскажите как сконфигурировать RAID 1 с двумя дисками на 750 машине.
    что делал:
    загрузился с диаг диска,
    зашёл в меню RAID
    отформатировал диски
    в меню выбора уровня кроме 0 не даёт нечего выбрать.
    Что делаю не так?

  • #14028

    Oldnick
    Участник

    raid-1 можно конфигурить на уровне AIX. 🙂
    обычно зеркалят rootvg или что там у вас….

  • #14030

    uxTuaHgp
    Участник

    ну этож олдскул, а товарищ спрашивает об аппаратной реализации.
    если в книжках нет (не может быть!), то наверное в поддержке можно спросить.

  • #14031

    admin4k admin4k
    Участник

    В том то и дело, в книжках говориться для зеркала нужно 2 диска они есть. По идее должно быть всё гуд.

  • #14032

    andrewk
    Участник

    а диаг-диск с какой версией AIX?

  • #14040

    Скорее всего на диаг диске нет дров под ваш контроллер. Я на такое нарывался на 770й.

  • #14041

    Sever
    Участник

    “Зеркало” на аппаратном уровне силами контроллера в серверах POWER это миф.

  • #14042

    А можно подробнее про миф?

  • #14043

    Sever
    Участник

    Зеркало организуется только средствами ОС, дисковые контроллеры в серверах этого делать не умеют.

  • #14044

    Зеркало организуется только средствами ОС, дисковые контроллеры в серверах этого делать не умеют.

    Не понял. Зеркало получается какого уровня? Видно ли его как два hdisk в системе или как один?

  • #14045

    Oldnick
    Участник

    не знаю как на Power, на x зеркало спокойно делается средствам контроллера. сам это пару раз проделывал с sas-дисками. система после этого естественно видит один диск.

  • #14046

    Sever
    Участник

    В стандартных поставках серверов под AIX контроллер «внутренних» дисков ничего не умеет. Только Raid0.

  • #14058

    Pavel Alexei
    Участник

    не скажу про 750, но 710/730 и еще какие-то я видел, raid1 на «встроенном» контроллере был. Но для запуска, надо диски переформатировать с 512 на 528 байт, что приводит к необходимости переставить ОС, если оно пришло с «завода».
    На всех инсталяциях что я видел, всегда пользовались для rootvg зеркалированием на уровне LVM. Объясняли что это лучше, чем то, что делает контроллер.

  • #14065

    В стандартных поставках серверов под AIX контроллер «внутренних» дисков ничего не умеет. Только Raid0.

    [code]# lspv
    hdisk4 00f671276c0ddb92 rootvg active
    hdisk2 00f6712786b74778 rootvg active
    # lsdev | grep hdisk
    hdisk2 Available 0L-00-00 SAS RAID 10 Disk Array
    hdisk4 Available 0C-01-02 MPIO IBM 2076 FC Disk[/code]

    Стандартная поставка 9117-MMB.

  • #14066

    На всех инсталяциях что я видел, всегда пользовались для rootvg зеркалированием на уровне LVM. Объясняли что это лучше, чем то, что делает контроллер.

    А тесты показывали?

  • #14068

    andrewk
    Участник

    все тесты будут зависеть от того, какой адаптер использовался и сколько кэша была на борту. На сколько я понимаю у этих новых встроенных адаптеров кэша либо нет, либо он очень маленький, поэтому LVM вполне может выигрывать по производительности. надо будет как-нибудь в свободное время поискать инфу

  • #14069

    Pavel Alexei
    Участник

    Я видел уже «свершившиеся», да и то не очень много.
    Но в 750 для RAID, даже 1, надо как минимум SAS RAID Enablement (#5679).

  • #14070

    byldozer
    Участник

    надо как минимум SAS RAID Enablement (#5679).

    Вот это и есть правильный ответ на вопрос 🙂

  • #14072

    Pavel Alexei
    Участник

    не всегда. Из последнего опыта, 710/730
    http://www.redbooks.ibm.com/abstracts/redp4636.html?Open
    2.9.1 RAID support
    An integrated SAS HDD/SSD controller is provided in the Power 710 and Power 730 system unit and provides support for JBOD and RAID 0, 1, and 10 for AIX or Linux.
    AIX and Linux can use disk drives formatted with 512-byte blocks when being mirrored by the
    operating system. These disk drives must be reformatted to 528-byte sectors when used in RAID arrays.
    4 сервера, 2 инталяции, AIX ставили 2 человека (из абсолютно разных конторах), в обоих случаях rootvg mirror на базе lvm.
    Я уже не помню где еще видел, давно было, «родной» контроллер тоже поддерживал RAID1, но тоже был использован mirror на базе LVM.
    Возможно так лучше.
    Более того, пару инсталяций видел, где миррор между 2 стороджами делаось на уровне LVM, таким образом обеспечивая remote site disaster recovery. Тоже видимо из best practices.

  • #14083

    byldozer
    Участник

    Возможно так лучше.

    Возможно.

    Более того, пару инсталяций видел, где миррор между 2 стороджами делаось на уровне LVM, таким образом обеспечивая remote site disaster recovery. Тоже видимо из best practices.

    А почему не GLVM ?

  • #14084

    Pavel Alexei
    Участник

    То что я видел было 2 сервера и 2 shared сторижа в одном помещении. Думаю GLVM превнес бы только проблемы. Оно хорош, судя по тому что читал, если диски внутренние.

  • #14085

    andrewk
    Участник

    А почему не GLVM ?

    не советуйте дурное людям.

  • #14086

    byldozer
    Участник

    То что я видел было 2 сервера и 2 shared сторижа в одном помещении. Думаю GLVM превнес бы только проблемы. Оно хорош, судя по тому что читал, если диски внутренние.

    если в одном помещение тогда да но изначально звучало «обеспечивая remote site disaster recovery», значит это не disaster 🙂

  • #14087

    byldozer
    Участник

    [quote quote="Victor" post=13362]
    А почему не GLVM ?

    не советуйте дурное людям.[/quote]
    А почему не советовать, всегда нужно рассматривать все варианты и выбирать тот который лучше в данном случае.

  • #14088

    andrewk
    Участник

    советовать нужно не все варианты, а только те, которые реально использовал сам и в состоянии гарантировать заказчику, что этот вариант будет у него работать. При выборе Cross-Site LVM и GLVM советовать GLVM как минимум безответственно:

    1. Если у заказчика есть такой выбор, значит у него уже есть SAN. Зачем ему городить огород с данными по IP?
    2. Для GLVM обычно используют ту же сеть, что и для всех остальных IP-пакетов. При хорошей загрузке сети просядет производительность записи/чтения данных. А если Вы рекомендуете заказчику сделать отдельную сеть (читай — инфраструктуру) для GLVM, то это выйдет дороже, чем существующее решение SAN. К тому же Вы ж не будет ради одного сервера класть свои кабели между ЦОДами? Поэтому у Вас данные все равно пойдут тем же каналам, а задержка в сети между ЦОДами обычно больше, чем задержка в локальной сети. Считайте опять накладные расходы для записи одного блока.
    3. Сеть IP обычно менее надежна, чем сеть SAN. Природа IP-сети такова, что пакеты могут потеряться и их надо ретрансмитить (в случае TCP). Если в момент, когда Ваша БД пишет на диск, пакет по пути к 2му серверу потерялся? что будет с данными? Запись будет висеть и ждать ответа от второго сервера, а Ваши пользователи вспоминать Вас добрыми словами. И асинхронный режим здесь не выход, потому что после потери одного пакета может потеряться связь между ЦОДами и Вы получаете вторую невосстановимую копию данных.
    4. GLVM не умеет (не умел?) всевозможных замечательных вещей типа Flash Copy и т.п.
    5. Ну и из личного опыта эксплуатации — оно не работает нормально. Или не работало во времена 5.3. С тех пор никому и не советую.

    Сеть SAN в отличие от сети IP обычно проектируется для большей надежности и большей пропускной способности каналов. Поэтому если у заказчика есть SAN, все остальные решения — от лукавого.

    GLVM был бы хорош, если у заказчика стоят два сервера в одном ЦОДе и нет SAN, а надо иметь вторую копию данных на другой машине.

  • #14093

    Pavel Alexei
    Участник

    To Victor:
    «remote site disaster recovery» — планы такие были, только вот одно название и осталось 🙂 Но решение планировалось и как DR solution.

  • #14094

    byldozer
    Участник

    советовать нужно не все варианты, а только те, которые реально использовал сам и в состоянии гарантировать заказчику, что этот вариант будет у него работать. При выборе Cross-Site LVM и GLVM советовать GLVM как минимум безответственно:

    Не факт, не согласен. Оба варианта тестировались и внедрялись. Cross-Site LVM — позволит получить значительно большую скорость передачи данных за счет более быстрой среды передачи данных, но требует ЗНАЧИТЕЛЬНЫХ капиталовложений (как минимум SAN и DS). GLVM — более бюджетный вариант с меньшей скоростью передачи данных поскольку нужен только Ethernet.
    А ести ваще по крутому — Remote Mirror на DS-ках (гулять так гулять 🙂 )
    В зависимости от того каким бюджетом Вы располагаете — Вы выбираете варианты.

    1. Если у заказчика есть такой выбор, значит у него уже есть SAN. Зачем ему городить огород с данными по IP?

    Согласен

    4. GLVM не умеет (не умел?) всевозможных замечательных вещей типа Flash Copy и т.п.

    Не знаю никогда таким не интересовался

    5. Ну и из личного опыта эксплуатации — оно не работает нормально. Или не работало во времена 5.3. С тех пор никому и не советую.

    Из личного моего опыта — оно работает, в «умелых» руках работает стабильно, но годится не для всех решений.

    Сеть SAN в отличие от сети IP обычно проектируется для большей надежности и большей пропускной способности каналов. Поэтому если у заказчика есть SAN, все остальные решения — от лукавого.

    Не спорю.

    GLVM был бы хорош, если у заказчика стоят два сервера в одном ЦОДе и нет SAN, а надо иметь вторую копию данных на другой машине.

    Наиболее частый вариант. При реализации этого варианта — имеем самое большое количество сэкономленных денег из-за отсутствия необходимости покупки SAN и DS. + это самый простой вариант для администратора по управлению, резервированию и востановлению.

    GLVM хорош и на больших расстояниях, НО при условии что количество передаваемых данных не очень велико. Хотя если использовать 10 Гб Ethernet ????? 🙂

Для ответа в этой теме необходимо авторизоваться.