lv state closed/syncd

Главная Форумы POWER Systems AIX/Hardware lv state closed/syncd

Просмотр 89 веток ответов
  • Автор
    Сообщения
    • #16218
      Viktor
      Участник

      доброго времени суток..
      пришел утром и вижу что
      oractrllv jfs2 299 299 1 closed/syncd
      и mount fs тож не могу сделать..как поменять lv state?
      или как найти почему он таким стал?
      пс был ребут пк по uptime увидел.

    • #16219
      andrewk
      Участник

      lsfs и что говорит mount?

    • #16220
      Viktor
      Участник

      [root@b2test]$ mount /oradata/ctrl
      mount: 0506-324 Cannot mount /dev/oractrllv on /oradata/ctrl: There is an input or output error.
      [root@b2test]$ mount /dev/oractrllv
      mount: 0506-324 Cannot mount /dev/oractrllv on /oradata/ctrl: There is an input or output error.
      [root@b2test]$ lsfs | grep /oradata/ctrl
      /dev/oractrllv — /oradata/ctrl jfs2 — rw yes no
      [root@b2test]$

    • #16221
      Viktor
      Участник

      как бы тестовая но счас она ппц как надо:((((

    • #16222
      Viktor
      Участник

      [root@b2test]$ lspv -l hdisk10
      hdisk10:
      LV NAME LPs PPs DISTRIBUTION MOUNT POINT
      oractrllv 299 299 60..60..59..60..60 /oradata/ctrl

    • #16223
      Viktor
      Участник

      fsck /dev/oractrllv

      The current volume is: /dev/oractrllv
      Unable to read primary superblock.
      Unable to read either superblock.

    • #16224
      Albert Maksimov
      Участник

      Пробовали “fsck -p” ?
      Мне помогало.

    • #16225
      Viktor
      Участник

      DENTIFIER: C86ACB7E

      Date/Time: Thu Jul 12 16:04:00 EEST 2012
      Sequence Number: 16493
      Machine Id: 000C0B56D600
      Node Id: srvua-db001
      Class: H
      Type: INFO
      Resource Name: hdisk10
      Resource Class: disk
      Resource Type: array
      Location: U787B.001.DNWAAC3-P1-C3-T1-W200500A0B8183F55-L8000000000000

      Description
      ARRAY CONFIGURATION CHANGED

      Probable Causes
      ARRAY CONTROLLER
      CABLES AND CONNECTIONS

      Failure Causes
      ARRAY CONTROLLER
      CABLES AND CONNECTIONS

      Recommended Actions
      NO ACTION NECESSARY

      Detail Data
      SENSE DATA
      0600 1600 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0102 0000 7000 0500
      0000 0098 0000 0000 9401 0000 0000 0000 0100 0000 0000 0000 0000 0000 0000 0000
      0002 1600 0016 0000 0000 0000 0000 0000 0000 3154 3631 3838 3839 3236 2020 2020
      2020 0612 5600 0008 0000 0600 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
      0005 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
      0000 0000 3220 13E2 3037 3132 3132 2F30 3533 3233 3900 0000 0000 0000 0000 0000
      0000 0000 3BBE 0000 F205 3704 0000 0200 0000 0000 0000 0000 0000 0000 0000 0000
      0000 0000
      имею такое

    • #16226
      Viktor
      Участник

      увы ни -y ни -p не помогает..:(

    • #16227
      andrewk
      Участник

      попробуйте для очистки совести что-то типа dd if=/dev/hdisk10 of=/tmp/test bs=1024 count=1048576

      а так – сейчас проснутся специалисты по DS4K и расскажут Вам, что у Вас зонинг неправильный 😉

    • #16228
      Viktor
      Участник

      412052+0 records in.
      412052+0 records out
      нажал ctrl+c

    • #16229
      Viktor
      Участник

      ппц:(

    • #16230
      andrewk
      Участник

      если читает – значит, еще не все потеряно. может быть только данные…

      пытаемся дальше:
      lqueryvg -p hdisk10 -At

      и да – опции -y, -p для fsck потенциально очень опасны. Если Вы не знаете, что произошло с Вашим томом, не проверяйте его с этими опциями – Вы рискуете разом потерять все.

    • #16231
      Viktor
      Участник

      [root@b2test]$ lqueryvg -p hdisk10 -At
      Max LVs: 256
      PP Size: 29
      Free PPs: 9
      LV count: 3
      PV count: 4
      Total VGDAs: 4
      Conc Allowed: 0
      MAX PPs per PV 2032
      MAX PVs: 16
      Quorum (disk): 1
      Quorum (dd): 1
      Auto Varyon ?: 1
      Conc Autovaryo 0
      Varied on Conc 0
      Logical: 000c0b560000d6000000010e9efb28ce.1 oraloglv_00 1
      000c0b560000d6000000010e9efb28ce.2 oractrllv 1
      000c0b560000d6000000010e9efb28ce.3 oradatalv 1
      Physical: 000c0b569ef98fa6 1 0
      000c0b56473a407e 1 0
      000c0b56d01cbb43 1 0
      000c0b569388726e 1 0
      Total PPs: 3696
      LTG size: 128
      HOT SPARE: 0
      AUTO SYNC: 0
      VG PERMISSION: 0
      SNAPSHOT VG: 0
      IS_PRIMARY VG: 0
      PSNFSTPP: 4352
      VARYON MODE: 0
      VG Type: 0
      Max PPs: 32512
      [root@b2test]$

    • #16232
      Viktor
      Участник

      поняв.записал на будущее;)

    • #16233
      Viktor
      Участник

      данные важны:)..:(((

    • #16236
      Viktor
      Участник

      lsvg -p oradatavg
      oradatavg:
      PV_NAME PV STATE TOTAL PPs FREE PPs FREE DISTRIBUTION
      hdisk2 active 1799 0 00..00..00..00..00
      hdisk11 active 599 0 00..00..00..00..00
      hdisk10 missing 299 0 00..00..00..00..00
      hdisk14 active 999 9 00..00..00..00..09

    • #16237
      andrewk
      Участник

      я так понял, что oradatalv нормально смонтировалась? проблема только для с oractrllv?

      давайте посмотрим на суперблок, если он еще живой:

      fsdb /dev/oractrllv

      затем – su

    • #16238
      Viktor
      Участник

      [root@b2test]$ fsdb /dev/oractrllv
      fsdb: 0506-148 /dev/oractrllv is not a valid file system.
      да проблемка только с oractrllv:(((( где лежит system.dbf

    • #16239
      Viktor
      Участник

      по блогам откопал что можно его удалить из odm
      rmdev -l hdisk
      потом в reboot
      и он должен тип заново получить label и потом добавить его в volume group
      но эт как я понимаю крайний случай((

    • #16240
      Viktor
      Участник

      есть кто живой тут;)

    • #16241
      Albert Maksimov
      Участник

      про fsck -y -p вроде и в мануале написано. Пардон, не предупредил. :whistle:
      rmdev -l вряд ли что-то даст (переведет в define). reboot после этого делать необязательно, достаточно cfgmgr.
      если захотите rmdev’ить, то можно поиграть и с exportvg + importvg 🙂

    • #16242
      Viktor
      Участник

      то есть создать новую Lun(pv) создать новый lv и потом exportvg?

    • #16243
      Albert Maksimov
      Участник

      что говорила fsck c ключами -y и -p?

      бэкапов, как понимаю, нет?

    • #16244
      Albert Maksimov
      Участник

      то есть создать новую Lun(pv) создать новый lv и потом exportvg?

      нет-нет.

    • #16245
      Viktor
      Участник

      The current volume is: /dev/oractrllv
      Unable to read primary superblock.
      Unable to read either superblock.

    • #16246
      Viktor
      Участник

      ой да поняв.но места нету:(

    • #16247
      Viktor
      Участник

      🙂
      бекапов конечно же нет:)

    • #16251
      Albert Maksimov
      Участник

      Давайте поговорим, успокоимся :laugh:
      Не совсем в тему, но у Вас VG как-то некрасиво выглядит. Несколько лунов в VG, на каждом из них отдельный lv. Нет зеркала (на DS надеетесь?).
      По делу ничего не добавлю, а если хотите поиграть, то… exportvg удалит описание VG из ODM, (тут можно сделать rmdev -dl , потом cfgmgr – диски снова появятся), а потом с помощью importvg импортировать VG обратно.

      Поглядите это:Исправление поврежденной сигнатуры в главном блоке файловой системы

    • #16252
      andrewk
      Участник

      прежде, чем пробовать советы по ссылке, сохраните соответствующие куски диска 😉

    • #16253
      Viktor
      Участник

      [root@b2test]$ od -x -N 64 /dev/oractrllv +0x1000
      /dev/oractrllv: There is an input or output error.
      0001000
      [root@b2test]$ od -x -N 64 /dev/oractrllv +0x1f000
      /dev/oractrllv: There is an input or output error.
      001f000
      [root@b2test]$ dd count=1 bs=4k skip=31 seek=1 if=/dev/oractrllv of=/dev/oractrllv
      dd: 0511-051 The read failed.
      : There is an input or output error.
      0+0 records in.
      0+0 records out.
      [root@b2test]$

      да как бы вроде спокойны..говорят если удалить hdisk из одм то вероятно всего потеря данных 100% 🙁

    • #16254
      Viktor
      Участник

      0+0 records in.
      0+0 records out
      вроде ничего и не затерлось:)

    • #16255
      Albert Maksimov
      Участник

      да как бы вроде спокойны..говорят если удалить hdisk из одм то вероятно всего потеря данных 100% 🙁

      Делал и не один раз, ничего не пропадало.

    • #16256
      Viktor
      Участник

      [quote quote="vitej1988" post=15512]да как бы вроде спокойны..говорят если удалить hdisk из одм то вероятно всего потеря данных 100% 🙁

      Делал и не один раз, ничего не пропадало.[/quote]

      а можете для чайника обьснить пошагово;)?

    • #16257
      Albert Maksimov
      Участник

      0+0 records in.
      0+0 records out

      Интересно, сначала диск читался, теперь не читается.
      С san-ds никто не играется?

    • #16258
      andrewk
      Участник

      во-1х, не удаляйте ничего из ODM – Вам это не поможет. У Вас покораптилась файловая система. Ее и надо лечить.

      во-2х, открывайте PMR в IBM, если еще не открыли, и прио 1. Дальше мы можем помочь относительно мало – нужен дамп Вашей файловой системы (точнее участков с основными ее структурами), нужны спецтулзы для анализа, которых ни у кого здесь нет. Ну и еще нужно время 😉

      в-3х, вероятность потери Ваших данных стремится к 100% – можете смело это уже объяснить начальству, а заодно выбить с него деньги на бэкап.

      в-4х, сделайте простой тест для Вашего диска – а то у Вас то он читается, то нет:
      dd if=/dev/hdisk10 of=/dev/null bs=128k
      я хочу полностью исключить возможность ошибки диска.

    • #16261
      Viktor
      Участник

      нашел event в storage manager(((

      Attachments:
    • #16262
      andrewk
      Участник

      [root@b2test]$ od -x -N 64 /dev/oractrllv +0x1000
      /dev/oractrllv: There is an input or output error.
      0001000
      [root@b2test]$ od -x -N 64 /dev/oractrllv +0x1f000
      /dev/oractrllv: There is an input or output error.
      001f000
      [root@b2test]$ dd count=1 bs=4k skip=31 seek=1 if=/dev/oractrllv of=/dev/oractrllv
      dd: 0511-051 The read failed.
      : There is an input or output error.
      0+0 records in.
      0+0 records out.
      [root@b2test]$

      да как бы вроде спокойны..говорят если удалить hdisk из одм то вероятно всего потеря данных 100% 🙁

      лично я бы Вас после этого уволил…

    • #16263
      Viktor
      Участник

      деньги я точню не выбью:)уже сказал что бд мертвая:(
      но а вдруг..на ibm выйти не могу.поддержки нету:(

    • #16264
      andrewk
      Участник

      специалисты по DS4K и зонингу – в атаку! 🙂

    • #16266
      Viktor
      Участник

      почему?
      я ведь сначала на старом серваке проверил где могу удалять спокойно а потом пошел на этот тест.
      и я скопировал в файл перед выполнение dd count=1 bs=4k skip=31 seek=1 if=/dev/oractrllv of=/dev/oractrllv..
      я что могу то и делаю:(

    • #16269
      Viktor
      Участник

      специалисты по DS4K и зонингу – в атаку! 🙂

      пятница 13 :((((((((((((((

    • #16270
      andrewk
      Участник

      1. Вы не прочитали статью по ссылке, а там четко говорится – это только для JFS и AIX 5.3. Не знаю, какая у Вас версия AIX, но у Вас JFS2, а соответственно эти команды Вам не подходят.

      2. Получив первую ошибку, Вы не остановились и не проанализировали ее причины, а продолжили выполнение дальнейших команд. Даже если бы у Вас была еще нормальная файловая система, то Вы ее вполне успешно бы разрушили своими действиями.

      3. Переписывая данные на диски, Вы не сделали бэкап той области данных, которую переписывали.

      С моей точки зрения, это чересчур много даже для начинающего администратора.

    • #16271
      Albert Maksimov
      Участник

      я ведь сначала на старом серваке проверил где могу удалять спокойно а потом пошел на этот тест.

      Кхм… разве ЭТОТ сервер не тестовый!?
      Вы же сами писали:

      как бы тестовая но счас она ппц как надо:((((

      лично я бы Вас после этого уволил…

      Мне кажется, что человек играет (казалось на тестовой партиции), опыта набирается и увольнять его не стоит.
      После нескольких шишек будет делать все аккуратно и со всеми бэкапами.

    • #16273
      andrewk
      Участник

      Мне кажется, что человек играет (казалось на тестовой партиции), опыта набирается и увольнять его не стоит.
      После нескольких шишек будет делать все аккуратно и со всеми бэкапами.

      так я тоже не увольняю 😉 пытаюсь объяснить, как сисадмин (с моей точки зрения) должен решать проблемы…

    • #16274
      Viktor
      Участник

      1. Вы не прочитали статью по ссылке, а там четко говорится – это только для JFS и AIX 5.3. Не знаю, какая у Вас версия AIX, но у Вас JFS2, а соответственно эти команды Вам не подходят.

      2. Получив первую ошибку, Вы не остановились и не проанализировали ее причины, а продолжили выполнение дальнейших команд. Даже если бы у Вас была еще нормальная файловая система, то Вы ее вполне успешно бы разрушили своими действиями.

      3. Переписывая данные на диски, Вы не сделали бэкап той области данных, которую переписывали.

      С моей точки зрения, это чересчур много даже для начинающего администратора.

      тяжко видеть ошибки когда некогда не делал.

      lsvg -l oradatavg | grep oractrllv
      oractrllv jfs 299 299 1 closed/syncd /oradata/ctrl

      поэтому и продолжил
      ок.спасибки:).
      я с logical/physical не знаком и разрез восстановления всегда делал админ но Увы его нету тута:(
      я ничего не перезател – не надо меня увольнять;)я хороший в другом).
      “3. Переписывая данные на диски, Вы не сделали бэкап той области данных, которую переписывали” я сделал бекап при помощи dd.

      этот тест как бы pre-production
      есть еще тест где я тренируюсь и смотрю что получается.

    • #16275
      andrewk
      Участник

      тяжко видеть ошибки когда некогда не делал.

      lsvg -l oradatavg | grep oractrllv
      oractrllv [u]jfs[/u] 299 299 1 closed/syncd /oradata/ctrl

      поэтому и продолжил
      ок.спасибки:).

      открываем самое первое сообщение в треде и видим:

      oractrllv [b]jfs2[/b] 299 299 1 closed/syncd

      я не знаю, что и как у Вас организовано, но если Вы сначала даете одни входные данные, а потом в процессе они меняются на другие – то Вы никогда не найдете решения своей проблемы.

    • #16277
      Viktor
      Участник

      LOGICAL VOLUME: oractrllv VOLUME GROUP: oradatavg
      LV IDENTIFIER: 000c0b560000d6000000010e9efb28ce.2 PERMISSION: read/write
      VG STATE: active/complete LV STATE: closed/syncd
      TYPE: jfs WRITE VERIFY: off
      MAX LPs: 512 PP SIZE: 512 megabyte(s)
      COPIES: 1 SCHED POLICY: parallel
      LPs: 299 PPs: 299
      STALE PPs: 0 BB POLICY: relocatable
      INTER-POLICY: minimum RELOCATABLE: yes
      INTRA-POLICY: middle UPPER BOUND: 1
      MOUNT POINT: /oradata/ctrl LABEL: None
      MIRROR WRITE CONSISTENCY: on/ACTIVE
      EACH LP COPY ON A SEPARATE PV ?: yes
      Serialize IO ?: NO
      согласен…короч лажа какая та.:(
      прошу прощение..

    • #16280
      andrewk
      Участник

      в любом случае надо сначала разобраться с Вашим зонингом. И тут я не помощник. Когда зонинг будет правильно настроен (если поищите – то найдете на форуме много тредов про это), вернемся к вопросу, что у Вас там – jfs или jfs2, и как бы это вылечить.

    • #16282
      roman
      Участник

      поддерживаю andrewk: сначала сделайте так, чтобы не было missing hdisks, а уж после этого будет понятно, что делать дальше

    • #16283
      Viktor
      Участник

      поддерживаю andrewk: сначала сделайте так, чтобы не было missing hdisks, а уж после этого будет понятно, что делать дальше

      а как сделать?)

    • #16287
      roman
      Участник

      все зависит от многих факторов. Для начала скажите:
      1) используется ли в вашей конфигурации vios
      2) используете вы или нет для вашего тестового сервера SAN-хранилище, и если да, то укажите его модель

    • #16289
      Viktor
      Участник

      1.нет.
      2.ds4700

    • #16292
      Viktor
      Участник

      все зависит от многих факторов. Для начала скажите:
      1) используется ли в вашей конфигурации vios
      2) используете вы или нет для вашего тестового сервера SAN-хранилище, и если да, то укажите его модель

      [root@b2test]$ oslevel -g
      Fileset Actual Level Maintenance Level
      —————————————————————————–
      bos.rte 5.3.10.0 5.3.0.0
      [root@b2test]$ oslevel -s
      5300-10-00-0000
      [root@b2test]$
      на всяк случай

    • #16294
      Albert Maksimov
      Участник

      [root@b2test]$ oslevel -s
      5300-10-00-0000

      :blink:

    • #16295
      roman
      Участник

      3) имеете ли вы доступ к DS Storage Manager?
      4) сможете ли вы в случае необходимости подключиться к SAN-свитчам для настройки зонинга?

    • #16296
      Viktor
      Участник

      3) имеете ли вы доступ к DS Storage Manager?
      4) сможете ли вы в случае необходимости подключиться к SAN-свитчам для настройки зонинга?

      имею.но 4 буду делать очень корректно(стремно короч)

    • #16298
      roman
      Участник

      будем надеяться, что это не понадобиться. Для начала покажите вывод команды manage_disk_drivers. А еще лучше, зайдите на DS Storage Manager и проверьте, все ли LUNы находятся на своих preferred paths. Если нет, redistribute их

    • #16299
      Viktor
      Участник

      будем надеяться, что это не понадобиться. Для начала покажите вывод команды manage_disk_drivers

      [root@b2test]$ manage_disk_drivers
      1: DS4100: currently RDAC; supported: RDAC/fcparray, MPIO
      2: DS4300: currently RDAC; supported: RDAC/fcparray, MPIO
      3: DS4500: currently RDAC; supported: RDAC/fcparray, MPIO
      4: DS4700/DS4200: currently RDAC; supported: RDAC/fcparray, MPIO
      5: DS4800: currently RDAC; supported: RDAC/fcparray, MPIO
      [root@b2test]$

    • #16300
      roman
      Участник

      теперь fget_config -Av или mpio_get_config -Av

    • #16301
      Viktor
      Участник

      теперь fget_config -Av или mpio_get_config -Av

      [root@b2test]$ fget_config -Av

      —dar0—

      User array name = ‘RSUA-DS4700-1’
      dac0 ACTIVE dac2 ACTIVE

      Disk DAC LUN Logical Drive
      hdisk2 dac2 0 TST16_DATA1
      hdisk14 dac0 30 tst16_data2

      —dar1—

      User array name = ‘RSUA-DS4100-1’
      dac1 ACTIVE dac3 ACTIVE

      Disk DAC LUN Logical Drive
      utm 7
      hdisk4 dac3 0 tsm_share1
      hdisk5 dac3 1 tsm_share2
      hdisk6 dac3 5 B2_logs
      hdisk7 dac1 6 B2_base_temp
      hdisk10 dac1 8 TST16_CTRL
      hdisk11 dac3 9 TST16_DATA2
      hdisk12 dac1 10 TST_SWAP
      hdisk13 dac3 11 B2_SWAP
      hdisk15 dac3 3 cc_record
      hdisk16 dac1 4 FS_data1
      hdisk17 dac1 12 FS_data2
      [root@b2test]$

    • #16303
      roman
      Участник

      теперь lspath

    • #16304
      Viktor
      Участник

      теперь lspath

      [root@b2test]$ lspath
      Enabled hdisk0 scsi0
      Enabled hdisk1 scsi0
      [root@b2test]$

    • #16305
      roman
      Участник

      lsdev | grep hdisk

    • #16306
      Viktor
      Участник

      lsdev | grep hdisk

      [root@b2test]$ lsdev | grep hdisk
      hdisk0 Available 03-08-00-5,0 16 Bit LVD SCSI Disk Drive
      hdisk1 Available 03-08-00-8,0 16 Bit LVD SCSI Disk Drive
      hdisk2 Available 09-08-01 1814 DS4700 Disk Array Device
      hdisk3 Defined 09-08-01 1814 DS4700 Disk Array Device
      hdisk4 Available 09-08-01 1724-100 (100) Disk Array Device
      hdisk5 Available 09-08-01 1724-100 (100) Disk Array Device
      hdisk6 Available 09-08-01 1724-100 (100) Disk Array Device
      hdisk7 Available 00-08-01 1724-100 (100) Disk Array Device
      hdisk8 Defined 00-08-01 1724-100 (100) Disk Array Device
      hdisk9 Defined 00-08-01 1724-100 (100) Disk Array Device
      hdisk10 Available 00-08-01 1724-100 (100) Disk Array Device
      hdisk11 Available 09-08-01 1724-100 (100) Disk Array Device
      hdisk12 Available 00-08-01 1724-100 (100) Disk Array Device
      hdisk13 Available 09-08-01 1724-100 (100) Disk Array Device
      hdisk14 Available 00-08-01 1814 DS4700 Disk Array Device
      hdisk15 Available 09-08-01 1724-100 (100) Disk Array Device
      hdisk16 Available 00-08-01 1724-100 (100) Disk Array Device
      hdisk17 Available 00-08-01 1724-100 (100) Disk Array Device
      [root@b2test]$

    • #16308
      roman
      Участник

      Вы заходили на DS Storage Manager? Все LUNы на preferred путях?

    • #16309
      Viktor
      Участник

      Вы заходили на DS Storage Manager? Все LUNы на preferred путях?

      вроде все нормально..а как посмотреть что hdisk10 dac1 8 TST16_CTRL “не соскочил”?
      через id fc наверное как -то?
      или я не о том?

    • #16311
      Viktor
      Участник

      [quote quote="roman" post=15557]теперь fget_config -Av или mpio_get_config -Av

      [root@b2test]$ fget_config -Av

      —dar0—

      User array name = ‘RSUA-DS4700-1’
      dac0 ACTIVE dac2 ACTIVE

      Disk DAC LUN Logical Drive
      hdisk2 dac2 0 TST16_DATA1
      hdisk14 dac0 30 tst16_data2

      —dar1—

      User array name = ‘RSUA-DS4100-1’
      dac1 ACTIVE dac3 ACTIVE

      Disk DAC LUN Logical Drive
      utm 7
      hdisk4 dac3 0 tsm_share1
      hdisk5 dac3 1 tsm_share2
      hdisk6 dac3 5 B2_logs
      hdisk7 dac1 6 B2_base_temp
      hdisk10 dac1 8 TST16_CTRL
      hdisk11 dac3 9 TST16_DATA2
      hdisk12 dac1 10 TST_SWAP
      hdisk13 dac3 11 B2_SWAP
      hdisk15 dac3 3 cc_record
      hdisk16 dac1 4 FS_data1
      hdisk17 dac1 12 FS_data2
      [root@b2test]$[/quote]

      соответсвует номеру 8 в storage manager

    • #16312
      roman
      Участник

      вам инструмент DS Storage Manager о чем-то говорит?
      и еще для составления общей картины вашей конфигурации дайте вывод следующих команд:
      # lsdev -C -c adapter -F ‘name class location physloc’
      # lscfg -vl hdisk10

    • #16313
      Viktor
      Участник

      вам инструмент DS Storage Manager о чем-то говорит?
      и еще для составления общей картины вашей конфигурации дайте вывод следующих команд:
      # lsdev -C -c adapter -F ‘name class location physloc’
      # lscfg -vl hdisk10

      [root@b2test]$ lsdev -C -c adapter -F ‘name class location physloc’
      ent0 adapter 07-08 U787B.001.DNWAAC3-P1-T9
      ent1 adapter 07-09 U787B.001.DNWAAC3-P1-T10
      ent2 adapter
      fcs0 adapter 00-08 U787B.001.DNWAAC3-P1-C3-T1
      fcs1 adapter 09-08 U787B.001.DNWAAC3-P1-C1-T1
      ide0 adapter 04-08 U787B.001.DNWAAC3-P1-T16
      sisscsia0 adapter 03-08 U787B.001.DNWAAC3-P1
      usbhc0 adapter 08-08 U787B.001.DNWAAC3-P1
      usbhc1 adapter 08-09 U787B.001.DNWAAC3-P1
      usbhc2 adapter 08-0a U787B.001.DNWAAC3-P1
      vsa0 adapter U787B.001.DNWAAC3-P1-T1
      vsa1 adapter U787B.001.DNWAAC3-P1-T2
      [root@b2test]$ lscfg -vl hdisk10
      hdisk10 U787B.001.DNWAAC3-P1-C3-T1-W200500A0B8183F55-L8000000000000 1724-100 (100) Disk Array Device
      [root@b2test]$

      говорит но очень мало:(..в какую сторону подсмотреть;)

    • #16314
      Viktor
      Участник

      у нас там еще battery status=failed на двух контроллерах.может из за этого все:(

    • #16315
      roman
      Участник

      статус батарей на доступность дисков не влияет. Просмотрите внимательно все события, может кроме кеша еще что есть. Посмотрите внимательно в свойствах вашего LUN 8 (TST16_CTRL), какой у него preferred path и какой current
      а также дайте вывод следующей команды
      # lsdev | grep fcs0

    • #16317
      Viktor
      Участник

      статус батарей на доступность дисков не влияет. Просмотрите внимательно все события, может кроме кеша еще что есть. Посмотрите внимательно в свойствах вашего LUN 8 (TST16_CTRL), какой у него preferred path и какой current
      а также дайте вывод следующей команды
      # lsdev | grep fcs0

      [root@b2test]$ lsdev | grep fcs0
      fcs0 Available 00-08 FC Adapter
      [root@b2test]$

      приложил..посмотрите пожалуйста;)

      Attachments:
    • #16318
      Viktor
      Участник

      [quote quote="roman" post=15572]статус батарей на доступность дисков не влияет. Просмотрите внимательно все события, может кроме кеша еще что есть. Посмотрите внимательно в свойствах вашего LUN 8 (TST16_CTRL), какой у него preferred path и какой current
      а также дайте вывод следующей команды
      # lsdev | grep fcs0

      [root@b2test]$ lsdev | grep fcs0
      fcs0 Available 00-08 FC Adapter
      [root@b2test]$

      приложил..посмотрите пожалуйста;)[/quote]

    • #16319
      Viktor
      Участник

      [spoiler]
      Date/Time: 12.07.12 18:57:52
      Sequence number: 1321057
      Event type: 280D
      Event category: Internal
      Priority: Critical
      Description: Drive enclosure component failed or removed
      Event specific codes: 0/0/0
      Component type: Enclosure Component (ESM, GBIC/SFP, Power Supply, or Fan)
      Component location: Enclosure 0, Slot 0
      Logged by: Controller in slot B

      Raw data:
      4d 45 4c 48 02 00 00 00 61 28 14 00 00 00 00 00
      0d 28 47 01 00 f4 fe 4f 00 00 00 00 00 00 00 00
      49 00 00 00 00 00 00 00 01 00 00 00 04 00 00 00
      07 00 00 00 07 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 01 00 00 00 02 10 00 00
      04 00 00 08 00 00 00 00 04 00 26 08 00 00 00 00

      Date/Time: 12.07.12 15:49:52
      Sequence number: 1320859
      Event type: 4011
      Event category: Error
      Priority: Critical
      Description: Logical Drive not on preferred path due to ADT/RDAC failover
      Event specific codes: 0/0/0
      Component type: Controller
      Component location: Controller in slot A
      Logged by: Controller in slot A

      Raw data:
      4d 45 4c 48 02 00 00 00 9b 27 14 00 00 00 00 00
      11 40 18 01 f0 c7 fe 4f 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 01 00 00 00
      08 00 00 00 08 00 00 00 ff ff ff ff 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 01 00 00 00 00 00 00 00

      Date/Time: 11.07.12 20:03:47
      Sequence number: 1319853
      Event type: 280D
      Event category: Internal
      Priority: Critical
      Description: Drive enclosure component failed or removed
      Event specific codes: 0/0/0
      Component type: Enclosure Component (ESM, GBIC/SFP, Power Supply, or Fan)
      Component location: Enclosure 0, Slot 0
      Logged by: Controller in slot B

      Raw data:
      4d 45 4c 48 02 00 00 00 ad 23 14 00 00 00 00 00
      0d 28 47 01 f3 b1 fd 4f 00 00 00 00 00 00 00 00
      49 00 00 00 00 00 00 00 01 00 00 00 04 00 00 00
      07 00 00 00 07 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 01 00 00 00 02 10 00 00
      04 00 00 08 00 00 00 00 04 00 26 08 00 00 00 00

      Date/Time: 10.07.12 21:00:39
      Sequence number: 1318081
      Event type: 280D
      Event category: Internal
      Priority: Critical
      Description: Drive enclosure component failed or removed
      Event specific codes: 0/0/0
      Component type: Enclosure Component (ESM, GBIC/SFP, Power Supply, or Fan)
      Component location: Enclosure 0, Slot 0
      Logged by: Controller in slot B

      Raw data:
      4d 45 4c 48 02 00 00 00 c1 1c 14 00 00 00 00 00
      0d 28 47 01 c7 6d fc 4f 00 00 00 00 00 00 00 00
      49 00 00 00 00 00 00 00 01 00 00 00 04 00 00 00
      07 00 00 00 07 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 01 00 00 00 02 10 00 00
      04 00 00 08 00 00 00 00 04 00 26 08 00 00 00 00

      Date/Time: 09.07.12 21:56:42
      Sequence number: 1316237
      Event type: 280D
      Event category: Internal
      Priority: Critical
      Description: Drive enclosure component failed or removed
      Event specific codes: 0/0/0
      Component type: Enclosure Component (ESM, GBIC/SFP, Power Supply, or Fan)
      Component location: Enclosure 0, Slot 0
      Logged by: Controller in slot B

      Raw data:
      4d 45 4c 48 02 00 00 00 8d 15 14 00 00 00 00 00
      0d 28 47 01 6a 29 fb 4f 00 00 00 00 00 00 00 00
      49 00 00 00 00 00 00 00 01 00 00 00 04 00 00 00
      07 00 00 00 07 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 01 00 00 00 02 10 00 00
      04 00 00 08 00 00 00 00 04 00 26 08 00 00 00 00

      Date/Time: 08.07.12 22:51:25
      Sequence number: 1314520
      Event type: 280D
      Event category: Internal
      Priority: Critical
      Description: Drive enclosure component failed or removed
      Event specific codes: 0/0/0
      Component type: Enclosure Component (ESM, GBIC/SFP, Power Supply, or Fan)
      Component location: Enclosure 0, Slot 0
      Logged by: Controller in slot B

      Raw data:
      4d 45 4c 48 02 00 00 00 d8 0e 14 00 00 00 00 00
      0d 28 47 01 bd e4 f9 4f 00 00 00 00 00 00 00 00
      49 00 00 00 00 00 00 00 01 00 00 00 04 00 00 00
      07 00 00 00 07 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
      00 00 00 00 00 00 00 00 01 00 00 00 02 10 00 00
      04 00 00 08 00 00 00 00 04 00 26 08 00 00 00 00

      [/spoiler]

    • #16320
      Viktor
      Участник

      [root@b2test]$ lsdev | grep fcs1
      fcs1 Available 09-08 FC Adapter
      [root@b2test]$ lsdev | grep fcs0
      fcs0 Available 00-08 FC Adapter
      [root@b2test]$

    • #16321
      roman
      Участник

      покажите еще HBA Host Port Information из Mapping View в DS Storage Manager

    • #16322
      roman
      Участник

      и еще, покажите вывод команды mpio_get_config -Av на хосте (ранее вы выполняли fget_config)

    • #16324
      Viktor
      Участник

      покажите еще HBA Host Port Information из Mapping View в DS Storage Manager

      готово;)

      Attachments:
    • #16325
      roman
      Участник

      lscfg -vl fcs0

    • #16326
      Viktor
      Участник

      [root@b2test]$ lscfg -vl fcs0
      fcs0 U787B.001.DNWAAC3-P1-C3-T1 FC Adapter

      Part Number……………..03N5014
      EC Level………………..A
      Serial Number……………1B61504313
      Manufacturer…………….001B
      Customer Card ID Number…..280D
      FRU Number……………… 03N5014
      Device Specific.(ZM)……..3
      Network Address………….10000000C953C8E9
      ROS Level and ID…………02C82134
      Device Specific.(Z0)……..1036406D
      Device Specific.(Z1)……..00000000
      Device Specific.(Z2)……..00000000
      Device Specific.(Z3)……..03000909
      Device Specific.(Z4)……..FFC01158
      Device Specific.(Z5)……..02C82134
      Device Specific.(Z6)……..06C32134
      Device Specific.(Z7)……..07C32134
      Device Specific.(Z8)……..20000000C953C8E9
      Device Specific.(Z9)……..BS2.10X4
      Device Specific.(ZA)……..B1D2.10X4
      Device Specific.(ZB)……..B2D2.10X4
      Device Specific.(ZC)……..00000000
      Hardware Location Code……U787B.001.DNWAAC3-P1-C3-T1

      [root@b2test]$

    • #16327
      roman
      Участник

      и еще
      lsdev -p fcs0
      lsdev -p fcs1
      mpio_get_config -Av

    • #16328
      Viktor
      Участник

      и еще
      lsdev -p fcs0
      lsdev -p fcs1
      mpio_get_config -Av

      [root@b2test]$ lsdev -p fcs0
      fcnet0 Defined 00-08-02 Fibre Channel Network Protocol Device
      fscsi0 Available 00-08-01 FC SCSI I/O Controller Protocol Device
      [root@b2test]$ lsdev -p fcs1
      fcnet1 Defined 09-08-02 Fibre Channel Network Protocol Device
      fscsi1 Available 09-08-01 FC SCSI I/O Controller Protocol Device
      [root@b2test]$ mpio_get_config -Av
      [root@b2test]$
      mpio_get_config ничего не вернуло

    • #16329
      roman
      Участник

      lsdev -p fscsi0
      lsdev -p fscsi1
      lsattr -El hdisk10

    • #16330
      Viktor
      Участник

      lsdev -p fscsi0
      lsdev -p fscsi1
      lsattr -El hdisk10

      [root@b2test]$ lsdev -p fscsi0
      dac0 Available 00-08-01 1814 DS4700 Disk Array Controller
      dac1 Available 00-08-01 1724-100 (100) Disk Array Controller
      [root@b2test]$ lsdev -p fscsi1
      dac2 Available 09-08-01 1814 DS4700 Disk Array Controller
      dac3 Available 09-08-01 1724-100 (100) Disk Array Controller
      [root@b2test]$ lsattr -El hdisk10
      PR_key_value none Persistant Reserve Key Value True
      cache_method fast_write Write Caching method False
      ieee_volname 600A0B8000183D3B000004C74E8A45B5 IEEE Unique volume name False
      lun_id 0x0008000000000000 Logical Unit Number False
      max_transfer 0x100000 Maximum TRANSFER Size True
      prefetch_mult 1 Multiple of blocks to prefetch on read False
      pvid 000c0b56d01cbb430000000000000000 Physical volume identifier False
      q_type simple Queuing Type False
      queue_depth 10 Queue Depth True
      raid_level 5 RAID Level False
      reassign_to 120 Reassign Timeout value True
      reserve_policy single_path Reserve Policy True
      rw_timeout 30 Read/Write Timeout value True
      scsi_id 0x10800 SCSI ID False
      size 153600 Size in Mbytes False
      write_cache yes Write Caching enabled False
      [root@b2test]$

    • #16334
      Viktor
      Участник

      может оно само 14 числа исправится:)

    • #16349
      roman
      Участник

      ну что, исправилось? 😉
      а если серьезнее, то вам надо решить проблемы с ошибками на DS, а также внимательнее изучить вашу конфигурацию подключения DS, при корректной настройке multipathing у вас не было бы таких проблем

    • #16352
      Viktor
      Участник

      ну что, исправилось? 😉
      а если серьезнее, то вам надо решить проблемы с ошибками на DS, а также внимательнее изучить вашу конфигурацию подключения DS, при корректной настройке multipathing у вас не было бы таких проблем

      решилось..пересозданием:(
      спасибо что помогали;)..надеюсь их больше не будет:)

    • #16353
      Viktor
      Участник

      буду настаивать на внешнем аудите..а там как повезет:)

    • #16359
      roman
      Участник

      пересозданием чего?

Просмотр 89 веток ответов
  • Для ответа в этой теме необходимо авторизоваться.