Ответ в теме: Миграция с EMC DMX-4 на Storwize v7000

Главная Форумы POWER Systems Миграция с EMC DMX-4 на Storwize v7000 Ответ в теме: Миграция с EMC DMX-4 на Storwize v7000

#38219
Александр
Участник

Ещё раз, здравствуйте. Вопрос по той же теме. Все серверы перенесли удачно, кроме одного. Исходные данные такие: rootvg подключен через VIOS, диск с данными (13tb) подключен напрямую по FC. На Storwize создали диск, прикрутили к LPAR напрямую, extendvg, mirrorvg и всё прочее, проблема в том, что все операции с VG, LV выполняются очень долго и с ошибками. Диск с данными, например, mirrorvg/unmirrorvg выполнял часов десять (те же операции на других логических разделах занимали несколько минут). То же касается и rootvg. Вот то, что сейчас:
[root@backup /]$ lspv
hdisk0          00ce837351f929d3                    rootvg          active
hdisk4          00ce8373aa1b670a                    rootvg          active
hdisk5          00ce8373afd163bc                    backupvg        active

[root@backup /]$ lsvg
rootvg
backupvg

[root@backup /]$ lsvg -p rootvg
rootvg:
PV_NAME           PV STATE          TOTAL PPs   FREE PPs    FREE DISTRIBUTION
hdisk0            active            799         654         160..82..92..160..160
hdisk4            active            799         528         147..08..53..160..160

В rootvg hdisk0 – со старой хранилки, сделали зеркало (делалось очень долго), создали dumpdevice, boot и прочее, зеркало разобрали (операция продолжалась часов восемь или больше). Сейчас запустил reducevg -df rootvg hdisk0 (там остались логические тома), сервер выдал такое:

[root@backup /]$ reducevg -df rootvg hdisk0
0516-1008 rmlv: Logical volume hd3 must be closed.  If the logical volume contains a filesystem, the umount command will close the LV device.

И повис… Примерно то же самое происходило с другим диском, при этом в процессах было такое (это на
текущий момент, тогда вместо hdisk0 был hdiskX с данными, но ситуация схожая):

[root@backup /]$ ps -ef | grep lv
root  2949256 12451850   0 19:08:47  pts/6  0:00 /bin/ksh /usr/sbin/rmlv -f -p hdisk0 00ce837300004c000000013151f938e4.7
root  6226090  2949256   0 19:08:47  pts/6  0:00 /usr/sbin/lvmt -e -f rmlv.sh -l 22 -p 12451850 rmlv 1
root  7077992  4980982   0 19:51:46  pts/5  0:00 grep lv
root  9175094  6226090 120 19:08:47  pts/6 41:23 /usr/bin/alog -t lvmcfg -o

И ещё висел grep что_то_там_со_странными_параметрами, занимая до 90% процессора.
В принципе, это уже не столь критично – данные перенесли на новую хранилку, сделал новый сервер, туда можно подключить диск с данными. Но подозреваю, что экспорт группы томов на старом сервере займёт много времени. Сейчас просто интересно понять – что происходит и почему.