Владимир

Ответы в темах

Просмотр 8 веток ответов
  • Автор
    Сообщения
    • #5402
      Владимир
      Участник

      Судя по графикам проблем нет ни с сетью ни с дисками, высокие пиковые значения I/O wait могут объясняться тем что ваш сервер долго ждёт ответа от какого-то другого сервера, с которым взаимодействует по сети. Но больше всего меня смущают просто огромные значения SYS% с графика CPU_ALL

    • #5323
      Владимир
      Участник

      Единственное, что Russian мы с самого начала определяли как “Русскоязычное” – так как основное общение происходит на русском языке, а среди наших активных участников есть и Украина, и Казахстан, и другие страны. Есть даже то, что называют “дальнее зарубежье”.

      Что-то это сильно попахивает критинической политкорректностью современных США. Такими темпами слово russian скоро превратится в ругательство как слово niger

    • #5320
      Владимир
      Участник

      devices.fcp.disk.ibm.mpio.rte – это не драйвер а host attachment script, после него надо поставить драйвер sddpcm. Качается отсюда
      http://www-01.ibm.com/support/docview.wss?rs=540&context=ST52G7&dc=D430&uid=ssg1S4000201&loc=en_US&cs=utf-8&lang=en
      только предварительно удалите проблемные диски командой rmdev -Rdl

    • #5318
      Владимир
      Участник

      Вот что мне лично нравится у IBM это наличие чётких инструкций что и в какой последовательности надо делать, так что не надо гадать что сначала пачить AIX или микрокод, просто читай и делай как написано.
      Чтобы не ловить нетривиальные глюки при обновлении, достаточно следовать одному простому правилу: ставить новый TL после того как к нему выходит третий сервис пак, и не прыгать через TL это совет из best practics по обновлениям.

    • #5292
      Владимир
      Участник

      с 5-го TL на 9-й – очень уж длинный прыжок получился. Думаю вам надо тщательно изучить инструкции ко всем TL между 5 и 9, там попадаются требования к уровню микрокодов самого сервера и адаптеров, а так-же к версиям драйверов внешних дисковых массивов. Я как-то сталкивался с подобной проблемой, чтобы пофиксить потребовалось обновить микрокод fc адапреров, host attachment script и sddpcm, деталей не помню, было это в прошлом году.

    • #5289
      Владимир
      Участник

      sever писал(а):
      порты на сервере могут работать в трех режимах – 1, 2 и 4Гбит
      HBA на DS – 2 и 4Гб
      Только при прямом соединении порт-порт линк может держаться на 4х Гбитах. Длина кабеля в этом случае не должна превышать 30 метров. Во всех других случаях скорость будет ниже в разы.

      Если я не прав, то поправьте меня…

      Полный бред! 4 гигабита преспокойно держатся через свич, если конечно порты FRM, а использование sddpcm ещё больше увеличивает полосу пропускания. Проверено на связке DS8300+mds9000+p570

    • #5243
      Владимир
      Участник

      TPC Basic Edition вроде как должен быть доступен для скачивания. Не знаю, касается это ds4800, но для ds6000/8000 точно доступен, буквально недавно общался с представителями IBM на эту тему, они сказали что можно скачать, надо только будет забить серийник массива

    • #5231
      Владимир
      Участник

      sever писал(а):
      smk писал(а):
      хайэнд ДС — это восьмитонник? думаю что на ds4k/5k это можно сделать через сторож партишнинг. но не пробовал.
      а еще можно воткнуть между железками свич и нарезать зон..

      Свичи не годятся. нужна максимальная пропускная способность прямого соединения.

      bagger писал(а):
      А сами LUN разве нельзя презентовать wwn адаптерам?. Просто StorageWorks EVA и CommandView именно так и презентуется LUN

      именно это и надо – однозначная связка LUN WWN адаптера на сервере. Или это и так является стандартом?
      Свичи конешно добавляют некоторую задержку, но если у вас маршрут до массива не проходит через десяток свичей и сотни километров линков эту разницу вы даже с микроскопом не уведите. В вашем случае самым простым решением, без покупки дополнительного оборудования, будет создать на массиве для каждого луна свою волюм группу, и к этой волюмгруппе создать хост коннекцию с нужным pwwn, вот только практика показывает что использование sddpcm есть самое лучшее решение, потому как даёт отказоустойчивость и балансировку нагрузки

    • #5229
      Владимир
      Участник

      На каком оборудовании построена SAN? Если cisco mds то мониторить потоки данных можно средствами фабрики, нагрузку на дисковую систему тем же nmon, или какой-нибудь другой софтиной типа nagios, zabbix и тому подобное. Ещё много слышал про IBM Total Storage Productivity Center, но вот пока никак не соберусь поставить посмотреть как выглядит сие творение.

Просмотр 8 веток ответов