Главная › Форумы › POWER Systems › AIX/Hardware › IBM 750 and RAID 1
- В этой теме 26 ответов, 8 участников, последнее обновление 9 лет, 1 месяц назад сделано
byldozer.
-
АвторСообщения
-
-
21.11.2011 в 15:10 #14027
admin4k admin4k
УчастникДобрый вечер, подскажите как сконфигурировать RAID 1 с двумя дисками на 750 машине.
что делал:
загрузился с диаг диска,
зашёл в меню RAID
отформатировал диски
в меню выбора уровня кроме 0 не даёт нечего выбрать.
Что делаю не так? -
21.11.2011 в 17:35 #14028
Oldnick
Участникraid-1 можно конфигурить на уровне AIX. 🙂
обычно зеркалят rootvg или что там у вас…. -
22.11.2011 в 08:11 #14030
uxTuaHgp
Участникну этож олдскул, а товарищ спрашивает об аппаратной реализации.
если в книжках нет (не может быть!), то наверное в поддержке можно спросить. -
22.11.2011 в 08:49 #14031
admin4k admin4k
УчастникВ том то и дело, в книжках говориться для зеркала нужно 2 диска они есть. По идее должно быть всё гуд.
-
22.11.2011 в 09:15 #14032
andrewk
Участника диаг-диск с какой версией AIX?
-
22.11.2011 в 13:53 #14040
Антон Чевычалов
УчастникСкорее всего на диаг диске нет дров под ваш контроллер. Я на такое нарывался на 770й.
-
22.11.2011 в 14:21 #14041
Sever
Участник“Зеркало” на аппаратном уровне силами контроллера в серверах POWER это миф.
-
22.11.2011 в 14:36 #14042
Антон Чевычалов
УчастникА можно подробнее про миф?
-
22.11.2011 в 15:10 #14043
Sever
УчастникЗеркало организуется только средствами ОС, дисковые контроллеры в серверах этого делать не умеют.
-
22.11.2011 в 15:46 #14044
Антон Чевычалов
УчастникЗеркало организуется только средствами ОС, дисковые контроллеры в серверах этого делать не умеют.
Не понял. Зеркало получается какого уровня? Видно ли его как два hdisk в системе или как один?
-
22.11.2011 в 17:08 #14045
Oldnick
Участникне знаю как на Power, на x зеркало спокойно делается средствам контроллера. сам это пару раз проделывал с sas-дисками. система после этого естественно видит один диск.
-
22.11.2011 в 19:27 #14046
Sever
УчастникВ стандартных поставках серверов под AIX контроллер “внутренних” дисков ничего не умеет. Только Raid0.
-
23.11.2011 в 11:09 #14058
Pavel Alexei
Участникне скажу про 750, но 710/730 и еще какие-то я видел, raid1 на “встроенном” контроллере был. Но для запуска, надо диски переформатировать с 512 на 528 байт, что приводит к необходимости переставить ОС, если оно пришло с “завода”.
На всех инсталяциях что я видел, всегда пользовались для rootvg зеркалированием на уровне LVM. Объясняли что это лучше, чем то, что делает контроллер. -
24.11.2011 в 07:24 #14065
Антон Чевычалов
УчастникВ стандартных поставках серверов под AIX контроллер “внутренних” дисков ничего не умеет. Только Raid0.
[code]# lspv
hdisk4 00f671276c0ddb92 rootvg active
hdisk2 00f6712786b74778 rootvg active
# lsdev | grep hdisk
hdisk2 Available 0L-00-00 SAS RAID 10 Disk Array
hdisk4 Available 0C-01-02 MPIO IBM 2076 FC Disk[/code]Стандартная поставка 9117-MMB.
-
24.11.2011 в 07:27 #14066
Антон Чевычалов
УчастникНа всех инсталяциях что я видел, всегда пользовались для rootvg зеркалированием на уровне LVM. Объясняли что это лучше, чем то, что делает контроллер.
А тесты показывали?
-
24.11.2011 в 07:54 #14068
andrewk
Участниквсе тесты будут зависеть от того, какой адаптер использовался и сколько кэша была на борту. На сколько я понимаю у этих новых встроенных адаптеров кэша либо нет, либо он очень маленький, поэтому LVM вполне может выигрывать по производительности. надо будет как-нибудь в свободное время поискать инфу
-
24.11.2011 в 07:58 #14069
Pavel Alexei
УчастникЯ видел уже “свершившиеся”, да и то не очень много.
Но в 750 для RAID, даже 1, надо как минимум SAS RAID Enablement (#5679). -
24.11.2011 в 10:14 #14070
byldozer
Участникнадо как минимум SAS RAID Enablement (#5679).
Вот это и есть правильный ответ на вопрос 🙂
-
24.11.2011 в 12:43 #14072
Pavel Alexei
Участникне всегда. Из последнего опыта, 710/730
http://www.redbooks.ibm.com/abstracts/redp4636.html?Open
2.9.1 RAID support
An integrated SAS HDD/SSD controller is provided in the Power 710 and Power 730 system unit and provides support for JBOD and RAID 0, 1, and 10 for AIX or Linux.
AIX and Linux can use disk drives formatted with 512-byte blocks when being mirrored by the
operating system. These disk drives must be reformatted to 528-byte sectors when used in RAID arrays.
4 сервера, 2 инталяции, AIX ставили 2 человека (из абсолютно разных конторах), в обоих случаях rootvg mirror на базе lvm.
Я уже не помню где еще видел, давно было, “родной” контроллер тоже поддерживал RAID1, но тоже был использован mirror на базе LVM.
Возможно так лучше.
Более того, пару инсталяций видел, где миррор между 2 стороджами делаось на уровне LVM, таким образом обеспечивая remote site disaster recovery. Тоже видимо из best practices. -
28.11.2011 в 13:48 #14083
byldozer
УчастникВозможно так лучше.
Возможно.
Более того, пару инсталяций видел, где миррор между 2 стороджами делаось на уровне LVM, таким образом обеспечивая remote site disaster recovery. Тоже видимо из best practices.
А почему не GLVM ?
-
28.11.2011 в 15:38 #14084
Pavel Alexei
УчастникТо что я видел было 2 сервера и 2 shared сторижа в одном помещении. Думаю GLVM превнес бы только проблемы. Оно хорош, судя по тому что читал, если диски внутренние.
-
28.11.2011 в 16:37 #14085
andrewk
УчастникА почему не GLVM ?
не советуйте дурное людям.
-
28.11.2011 в 17:14 #14086
byldozer
УчастникТо что я видел было 2 сервера и 2 shared сторижа в одном помещении. Думаю GLVM превнес бы только проблемы. Оно хорош, судя по тому что читал, если диски внутренние.
если в одном помещение тогда да но изначально звучало “обеспечивая remote site disaster recovery”, значит это не disaster 🙂
-
28.11.2011 в 17:19 #14087
byldozer
Участник[quote quote="Victor" post=13362]
А почему не GLVM ?не советуйте дурное людям.[/quote]
А почему не советовать, всегда нужно рассматривать все варианты и выбирать тот который лучше в данном случае. -
28.11.2011 в 17:44 #14088
andrewk
Участниксоветовать нужно не все варианты, а только те, которые реально использовал сам и в состоянии гарантировать заказчику, что этот вариант будет у него работать. При выборе Cross-Site LVM и GLVM советовать GLVM как минимум безответственно:
1. Если у заказчика есть такой выбор, значит у него уже есть SAN. Зачем ему городить огород с данными по IP?
2. Для GLVM обычно используют ту же сеть, что и для всех остальных IP-пакетов. При хорошей загрузке сети просядет производительность записи/чтения данных. А если Вы рекомендуете заказчику сделать отдельную сеть (читай – инфраструктуру) для GLVM, то это выйдет дороже, чем существующее решение SAN. К тому же Вы ж не будет ради одного сервера класть свои кабели между ЦОДами? Поэтому у Вас данные все равно пойдут тем же каналам, а задержка в сети между ЦОДами обычно больше, чем задержка в локальной сети. Считайте опять накладные расходы для записи одного блока.
3. Сеть IP обычно менее надежна, чем сеть SAN. Природа IP-сети такова, что пакеты могут потеряться и их надо ретрансмитить (в случае TCP). Если в момент, когда Ваша БД пишет на диск, пакет по пути к 2му серверу потерялся? что будет с данными? Запись будет висеть и ждать ответа от второго сервера, а Ваши пользователи вспоминать Вас добрыми словами. И асинхронный режим здесь не выход, потому что после потери одного пакета может потеряться связь между ЦОДами и Вы получаете вторую невосстановимую копию данных.
4. GLVM не умеет (не умел?) всевозможных замечательных вещей типа Flash Copy и т.п.
5. Ну и из личного опыта эксплуатации – оно не работает нормально. Или не работало во времена 5.3. С тех пор никому и не советую.Сеть SAN в отличие от сети IP обычно проектируется для большей надежности и большей пропускной способности каналов. Поэтому если у заказчика есть SAN, все остальные решения – от лукавого.
GLVM был бы хорош, если у заказчика стоят два сервера в одном ЦОДе и нет SAN, а надо иметь вторую копию данных на другой машине.
-
28.11.2011 в 19:35 #14093
Pavel Alexei
УчастникTo Victor:
“remote site disaster recovery” – планы такие были, только вот одно название и осталось 🙂 Но решение планировалось и как DR solution. -
28.11.2011 в 19:57 #14094
byldozer
Участниксоветовать нужно не все варианты, а только те, которые реально использовал сам и в состоянии гарантировать заказчику, что этот вариант будет у него работать. При выборе Cross-Site LVM и GLVM советовать GLVM как минимум безответственно:
Не факт, не согласен. Оба варианта тестировались и внедрялись. Cross-Site LVM – позволит получить значительно большую скорость передачи данных за счет более быстрой среды передачи данных, но требует ЗНАЧИТЕЛЬНЫХ капиталовложений (как минимум SAN и DS). GLVM – более бюджетный вариант с меньшей скоростью передачи данных поскольку нужен только Ethernet.
А ести ваще по крутому – Remote Mirror на DS-ках (гулять так гулять 🙂 )
В зависимости от того каким бюджетом Вы располагаете – Вы выбираете варианты.1. Если у заказчика есть такой выбор, значит у него уже есть SAN. Зачем ему городить огород с данными по IP?
Согласен
4. GLVM не умеет (не умел?) всевозможных замечательных вещей типа Flash Copy и т.п.
Не знаю никогда таким не интересовался
5. Ну и из личного опыта эксплуатации – оно не работает нормально. Или не работало во времена 5.3. С тех пор никому и не советую.
Из личного моего опыта – оно работает, в “умелых” руках работает стабильно, но годится не для всех решений.
Сеть SAN в отличие от сети IP обычно проектируется для большей надежности и большей пропускной способности каналов. Поэтому если у заказчика есть SAN, все остальные решения – от лукавого.
Не спорю.
GLVM был бы хорош, если у заказчика стоят два сервера в одном ЦОДе и нет SAN, а надо иметь вторую копию данных на другой машине.
Наиболее частый вариант. При реализации этого варианта – имеем самое большое количество сэкономленных денег из-за отсутствия необходимости покупки SAN и DS. + это самый простой вариант для администратора по управлению, резервированию и востановлению.
GLVM хорош и на больших расстояниях, НО при условии что количество передаваемых данных не очень велико. Хотя если использовать 10 Гб Ethernet ????? 🙂
-
-
АвторСообщения
- Для ответа в этой теме необходимо авторизоваться.