Гибернация (Suspend/Resume) для IBM i

Главная Форумы IBM i (OS/400) Гибернация (Suspend/Resume) для IBM i

Просмотр 56 веток ответов
  • Автор
    Сообщения
    • #12002
      Sever
      Участник

      допилили

      From the RFA:
      PowerVM includes support for an IBM i 7.1 partition to be suspended, and later resumed. Using Suspend/Resume, clients can perform long-term suspension of partitions, which frees server resources used by that partition, and later resume operation of that partition and its applications on the same server.

      http://ibmsystemsmag.blogs.com/i_can/2011/04/suspend-my-i.html

      ===========================================================
      Requirements for Suspend / Resume:
      IBM i 7.1, or later, is required.
      All I/O resources must be virtualized using VIOS.
      All partition storage must be external.
      Either an HMC or SDMC must be used to manage the partitions.
      The partition must be resumed on the same server on which it was suspended.
      POWER7 firmware: Ax730_xxx, or later, is required.
      VIOS 2.2.0.12-FP24 SP02, or later, is required.
      ===========================================================

      дык 730ых прошивок еще нет :laugh:
      и консолей 7.730 нету

    • #12005
      Oldnick
      Участник

      все дружно переходим на VIOS !

    • #12012
      Sever
      Участник

      VIOS – тяжелое наследие прошлого.
      Его функции скорее всего скоро перенесут в гипервизор.

    • #12013
      andrewk
      Участник

      never ever 🙂

    • #12014
      Sever
      Участник

      никогда не говори никогда
      нет таких решений, которые IBM не может не принять ради ревеню 😉
      А сейчас функции конфигурации виртуализации дублируются…

      Весь этот функционал можно засунуть в графический интерфейс консоли.
      Это удобно. И это совпадает с линией IBM на централизацию управления и контроля над всей инфраструктурой из одной точки.

    • #12016
      Gremlin
      Участник

      Есть у меня подозрения, что гибкая виртуализация I/O устройств плохо вписывается в существующую концепцию “small and tiny” hypervisor. Ему тогда придётся стать большим и страшным, и потребует сильного пересмотра всей архитектуры.

    • #12018
      Sever
      Участник

      Пересмотр и так идет. Функции управления передаются на верхние уровни. Так легче централизовать управление и упростить многие функции. Продать такие решения можно за бОльшие деньги.

    • #12019
      pre
      Участник

      Согласен, что VIOS – тяжелое наследие.

      Правда вот требования для обеспечения Suspend/Resume сильно смахивают на оные к live partition mobility для AIX и Linux. Что опять же наводит на мысль, что по другому они (IBM) просто пока не могут – портируются готовые решения.

    • #12021
      andrewk
      Участник

      VIOS – наше светлое настоящее. И совсем не тяжелое наследие. Не надо ничего пересматривать. У IBM действительно лучшее решение по виртуализации на рынке.

    • #12023
      pre
      Участник

      Виртуализация не самоцель, а способ раздать ресурсы.

    • #12025
      andrewk
      Участник

      именно. и способ IBM пока что лучший 😉

    • #12026
      roman
      Участник

      тогда будет интересно услышать мнение andrewk по следующим вопросам, если VIOS – наше светлое настоящее:
      1) для чего тогда используют NPIV, и зачем выделять целую партицию под VIOS, если те незначительные расходы по маршрутизации запросов можно переложить на hypervisor; я так понимаю, это следующий шаг в виртуализации storage после vscsi;
      2) для чего тогда использовать hardware-виртуализацию IVE (обратно же забирая работу VIOS); я так понимаю, это следующий шаг в виртуализации LAN после virtual ethernet.

    • #12027
      Дмитрий
      Участник

      дык 730ых прошивок еще нет :laugh:
      и консолей 7.730 нету

      Также как и VIOS 2.2.0.12-FP24 SP02 еще не выложили 🙂

    • #12029
      andrewk
      Участник

      roman, you understand incorrectly 🙂
      yes, you and sever are right, that every task can be moved to PHYP, and it can do the same things, as VIO. But in this case PHYP will shortly be as VMware – the same bloatware. And more – we will receive the same problems with performance, as VMware has. As far as I remember, there are no VMware benchmarks, e.g. for TPC-C, because VMware forbids the publications of these benchmarks. Do you know, why? I suppose, you know 🙂
      The 2nd problem with bloat hypervisor is resources. As for now PHYP is executed on its own CPU (PPC604e afair) and has its own flash memory. It doesn’t use server’s CPU and storage, because they are much more important for business applications, as for virtualization.
      Having such small PHYP we receive a very good performance in micropartitioning and other techonologies, which don’t require I/O (mostly storage) virtualization.
      But I/O virtualization is also important. Because of that we have VIOS. VIOS is a sort of appliance, which does only I/O virtualization. It per se can’t virtualize your CPUs or RAM. While I/O virtualization requires usually more resources as a small hypervisor, VIOS was moved to a normal userspace – we need to create an additional LPAR, which uses our RAM, CPUs, storage. It has such advantage, that we use “normal” Power CPUs, and I/O virtualization works with good (suitable) performance. Because we have a “normal” LPAR, we can install two VIOSes and make a cluster of them, which makes better availability. If we’d have all of these functions only in PHYP, we could not make a cluster – we’d be required to buy a second PHYP, but it can only be done for Hi-End models. In case of I/O virtualization on the level of LPAR you can implement HA even on Power710.
      Now back to the basics 🙂 Why NPIV and IVE are not our bright future.
      NPIV is a very good technology, but everything has its own problems. It seems, that you never worked with NPIV in real BIG enterprise environment. If you have 50 LPARs on the host, you need to make 50 vfchosts for storage and 50 vfchosts for tapes on one VIO. And the same on the second VIO. It is quite easy to make them and arrange to the client LPARs. No problem. The problem begins with client LPARs – you’ll receive a lot of performance problems and lot of strange problems with FC. Do you know how much memory do you need for this configuration? I don’t want to look at the Infocenter – but you can do it for me. I will say only, that it will be more than 32GB per VIO afair. The official answer of IBM – “Memory is cheap, buy more”. Now compare this to the requirements of VSCSI. It’s a homework for this WE 🙂
      The 2nd problem with NPIV, which I was pointed from one of the readers of my blog, is that we need to install on all of these 50 LPARs storage drivers. If we are for simplicity (and against complexity) we’d rather install all of these drivers on one (two) VIO(s) and manage all problems with them in one (two) point(s).
      As for IVE – it’s the worst invention of IBM. Please read once a redbook on IVE and you understand, why is it so. I never recommended to use IVE to any of my clients, and as far as I can see, nobody uses it.
      What awaits us in the future is VIOS NextGen with its shared storage pools. As for now it’s the only “next step” in the IBM virtualization. The 2nd big step is SDMC – it has nothing common with VIO and PHYP (as for now), but nevertheless it is our future.

      Sorry for english – I don’t have russian keyboard on my job and can’t reconfigure my PC 🙁

    • #12030
      roman
      Участник

      спасибо за объяснение:) Очень интересно было почитать.
      Еще один вопрос насчет IVE. Я читал redbook redp4340. Какие серьезные недостатки имеет эта технология?

    • #12031
      Gremlin
      Участник

      Еще один вопрос насчет IVE. … Какие серьезные недостатки имеет эта технология?

      Один сходу назову: если IVE поломается, то для его замены придётся выключать всю машину и останавливать все разделы.

    • #12033
      Gremlin
      Участник

      As for now PHYP is executed on its own CPU (PPC604e afair) and has its own flash memory. It doesn’t use server’s CPU and storage, because they are much more important for business applications, as for virtualization.(

      andrewk, are you sure with that?
      Вроде бы, начиная с поколения Power5, гипервизор всегда запускается на процессорах самого сервера, резервируя под свои нужды часть оперативной памяти этого же сервера. И уже потом происходит распределение ресурсов разделам. Это хранится он на флэшке в сервисном процессоре и стартует оттуда.

    • #12034
      andrewk
      Участник

      1. you need to plan your usage of IVE before you use it. The maximum amount of ports and their performance are dependent on Multi Core Scaling value (MCS). To change the MCS you need to reboot the whole server. In a dynamic environment, where the amount of LPARs changes daily, you can’t daily recycle the power.

      2. if you want to use SEA on top of IVE you will need to reserve the whole physical port for one LPAR. So the promiscous mode works on IVE. You don’t have anymore any advantages of virtualization.

      3. if you’d like to use Etherchannel on one LPAR, all LPARs which connected to the same physical port of IVE, should also have Etherchannels.

      4. you can’t dynamically add or remove VLANs on IVE port. You know, what it means, don’t you? 😉

      5. and yes – as already Gremlin wrote, you need to stop the whole server, if you need to change your broken IVE.

      6. earlier was also one more problem, but it seems to be fixed in the latest versions of AIX – IVE can be “etherchannelled” only with IVE.

    • #12035
      andrewk
      Участник

      Gremlin, i’m sure. PHYP uses the RAM of the server, but it doesn’t use CPU, because it has its own. “Service Processor” (FSP) is indeed a board with CPU, flash and its own version of Linux on it (psst, I didn’t tell it 🙂

    • #12036
      Serg
      Участник

      [quote quote="roman" post=11334]Еще один вопрос насчет IVE. … Какие серьезные недостатки имеет эта технология?

      Один сходу назову: если IVE поломается, то для его замены придётся выключать всю машину и останавливать все разделы.[/quote]
      а если planar сломается?)

    • #12037
      andrewk
      Участник

      а если planar сломается?)

      you know the difference between planar and expansion card 😉

    • #12038
      Serg
      Участник

      а вообще сетевые возможности в vmware богаче и реализованы лучше.)
      кстати вполне не плохие сапсы)
      http://download.sap.com/download.epd?context=40E2D9D5E00EEF7C1AB8A5873709BD5032A48D77A8A3FFD8F71D1611A257A8A3

    • #12039
      Serg
      Участник

      [quote quote="dianin" post=11340]
      а если planar сломается?)

      you know the difference between planar and expansion card ;-)[/quote]

      они не ломаются?)))

    • #12040
      Gremlin
      Участник

      Всё ломается. Просто одно меняется на лету, а другое нет.
      Поэтому кстати Ethernet порты на планаре тоже использовать не стоит.

    • #12041
      andrewk
      Участник

      and good SAPs 🙂
      http://download.sap.com/download.epd?context=40E2D9D5E00EEF7C83E16881038C2A048628580F1C646F72AC52B9A6844171CA

      http://download.sap.com/download.epd?context=40E2D9D5E00EEF7CD64B051DE232B412800A3B0D572F05FE6ED17D849ABE4093

      if you look precisely at SAP benchmarks, you’ll see that VMware results are on the level with the results of 5-10 years ago.

    • #12042
      andrewk
      Участник

      [table]
      [tr]
      [td]Date[/td]
      [td]Partner[/td]
      [td]Users[/td]
      [td]SAPS[/td]
      [td]OS[/td]
      [td]RDBMS[/td]
      [td]CPUs[/td]
      [td]CPU[/td]
      [td]DB RAM[/td]
      [td]App Servers[/td]
      [/tr]
      [tr]
      [td]3/26/2001[/td]
      [td]Unisys[/td]
      [td]14400[/td]
      [td]73030[/td]
      [td]Windows 2000[/td]
      [td]MS SQL Server 2000[/td]
      [td]24[/td]
      [td]Pentium III Xeon[/td]
      [td]8192[/td]
      [td]73 x Enterprise Server ES5085 8-way, Pent III Xeon 700 MHz[/td]
      [/tr]
      [tr]
      [td]3/9/1998[/td]
      [td]Sun[/td]
      [td]14400[/td]
      [td]78750[/td]
      [td]Solaris 2.6[/td]
      [td]Oracle 8.0.4[/td]
      [td]64[/td]
      [td]UltraSparc II[/td]
      [td]28672[/td]
      [td]6 x SUN 10000, 64-way SMP, UltraSparc II, 336 MHz, + 1x SUN 3500, 7-way UltraSparc II, 336 MHz[/td]
      [/tr]
      [tr]
      [td]7/9/1999[/td]
      [td]IBM[/td]
      [td]16640[/td]
      [td]83450[/td]
      [td]AIX 4.3.3 (DB) / AIX 4.3.2 (Apps.)[/td]
      [td]Oracle 8.0.5[/td]
      [td]24[/td]
      [td]RS64-III[/td]
      [td]32768[/td]
      [td]128 x RS/6000 SP H50, 4-way SMP, 32 x RS/6000 SP 43P-260, 2-way SMP[/td]
      [/tr]
      [tr]
      [td]4/14/2010[/td]
      [td]Fujitsu[/td]
      [td]16000[/td]
      [td]87800[/td]
      [td]SuSE Linux Enterprise Server 10 on VMware ESX Server 4.0[/td]
      [td]MaxDB 7.8[/td]
      [td]2[/td]
      [td]Intel Xeon Processor X5570[/td]
      [td]98304[/td]
      [td]Total of 7 Application Servers: 6 Dialog/Update servers, 1 Dialog/Update/Message/Enqueue server: Fujitsu PRIMERGY BX900 S1, 2 processors / 8 cores / 16 threads, Intel Xeon X5560 2.80 GHz, 64 KB L1 cache and 256 KB L2 cache per core, 8 MB L3 cache per processor, 36 GB main memory[/td]
      [/tr]
      [tr]
      [td]6/17/2004[/td]
      [td]HP[/td]
      [td]17184[/td]
      [td]88100[/td]
      [td]HP-UX 11i[/td]
      [td]Oracle 10g[/td]
      [td]8[/td]
      [td]Intel Itanium 2[/td]
      [td]24576[/td]
      [td](total 29) 24 Dialog servers: HP Integrity Model rx4640, 4-way SMP Intel Itanium 2 1.5 GHz, 32 KB L1 cache, 256KB L2 cache, 6MB L3 cache, 16GB main memory / 4 Update servers: HP Integrity Model rx4640, 4-way SMP Intel Itanium 2 1.5 GHz, 32KB L1 cache, 256KB L2 cache, 6MB L3 cache, 16GB main memory [/td]
      [/tr]
      [tr]
      [td]6/27/2005[/td]
      [td]HP[/td]
      [td]18000[/td]
      [td]90950[/td]
      [td]Windows Server 2003 Enterprise Edition (64-bit) (DB), Windows Server 2003 Enterprise Edition (32-bit) (Apps)[/td]
      [td]SQL Server 2005 (64-bit)[/td]
      [td]4[/td]
      [td]Dual-core AMD Opteron processor Model 875[/td]
      [td]32768[/td]
      [td](total 33) [/td]
      [/tr]
      [tr]
      [td]4/23/2001[/td]
      [td]Unisys[/td]
      [td]18500[/td]
      [td]92970[/td]
      [td]Windows 2000[/td]
      [td]MS SQL Server 2000[/td]
      [td]32[/td]
      [td]Pentium III Xeon[/td]
      [td]12288[/td]
      [td]92 x Enterprise Server ES5085 8-way, Pent III Xeon 700 MHz[/td]
      [/tr]
      [/table]

    • #12045
      Serg
      Участник

      and good SAPs 🙂
      http://download.sap.com/download.epd?context=40E2D9D5E00EEF7C83E16881038C2A048628580F1C646F72AC52B9A6844171CA

      http://download.sap.com/download.epd?context=40E2D9D5E00EEF7CD64B051DE232B412800A3B0D572F05FE6ED17D849ABE4093

      if you look precisely at SAP benchmarks, you’ll see that VMware results are on the level with the results of 5-10 years ago.

      дак это монстры))) single image системы.) с ценой миллионов под 100 вторая ссылка особенно)
      а тут 7 вшивеньких двух юнитовых сервачка под vmware)

    • #12047
      Serg
      Участник

      а если посмотреть на http://www.spec.org/
      CPU2006 можно вообще веру в Power потерять) Xeon-ы делают и P6 и P7)

    • #12050
      Serg
      Участник

      Всё ломается. Просто одно меняется на лету, а другое нет.
      Поэтому кстати Ethernet порты на планаре тоже использовать не стоит.

      Истинная логика нашего мира — это подсчет вероятностей. Максвелл ) надежную конфигурацию можно придумать и с виосом и с ive.

    • #12053
      Gremlin
      Участник

      Да я не про то. IVE является single point of failure. К тому же требует остановки всей машины для его замены. Придумайте тут надёжную конфигурацию.

    • #12054
      Michael
      Участник

      Да я не про то. IVE является single point of failure. К тому же требует остановки всей машины для его замены. Придумайте тут надёжную конфигурацию.

      Надо не одну, а две машины, однако! :laugh:

    • #12055
      Gremlin
      Участник

      Gremlin, i’m sure. PHYP uses the RAM of the server, but it doesn’t use CPU, because it has its own. “Service Processor” (FSP) is indeed a board with CPU, flash and its own version of Linux on it (psst, I didn’t tell it 🙂

      Не могу согласиться. Это никакой логике не соответствует. Вот крутится он на своём мелком процессоре, а память берёт из самого сервера. Это физически как возможно?
      Насколько я понимаю концепцию гипервизора, он в любом случае работает на том самом железе, которое потом раздаёт гостевым системам.

    • #12056
      andrewk
      Участник

      I don’t know “concept of hypervisor”, I know PHYP 🙂

    • #12057
      Gremlin
      Участник

      Тогда объясните, пожалуйста, как тот процессор внутри FSP одновременно обеспечивает работу гипервизора (который при этом использует память сервера каким-то образом) да ещё и интерфейс ASMI крутит, и много чего ещё. И для чего тогда нужна оперативная память внутри FSP?

    • #12058
      roman
      Участник

      “The POWER Hypervisor uses some system processor and memory resources (a small percentage). These resources are associated with virtual memory management (VMM), the POWER Hypervisor dispatcher, virtual processor data structures (including save areas for virtual processor), and for queuing of
      interrupts. The impact on performance should be minor for most workloads, but the impact increases with extensive amounts of page-mapping activity.”

      и еще одна цитата:
      “The POWER Hypervisor has no specific or dedicated processor resources assigned to it.”

    • #12059
      andrewk
      Участник

      насколько я знаю, ОЗУ (в привычном понимании) на плате FSP нет. Но я давно внутрь не лазил. FSP – это набор программ, которые выполняются на этой плате. PHYP – всего лишь одна из программ. Еще раз – никаких процессорных ресурсов PHYP сам по себе не жрет, поскольку исполняется на отдельном CPU. В памяти сервера он хранит информацию об устройствах, об их распределении между LPAR’ами, активные профили LPAR’ов. Если не хотите – можете мне не верить 🙂 Информацию Вы на этот счет все равно скорее всего не найдете, я ее больше выдать не в состоянии – во-1) я не разработчик FSP и внутрь не лазил, только доки читал, во-2) есть NDA и поэтому я не могу рассказать подробности взаимодействия FSP и сервера (хотя догадаться там совсем не сложно и без всякой документации, и без подсказок).

    • #12069
      Gremlin
      Участник

      В редбуках по младшим серверам Power5 была подробная схема устройства FSP. На которой видно, что сервисный процессор – это своего рода компьютер в компьютере, со своим CPU, флэш-памятью, ОЗУ и собственной операционной системой. А все настройки LPAR’ов хранятся одновременно и в сервисном процессоре, и в HMC.
      Повторюсь, предположение о том, что гипервизор выполняется внутри сервисного процессора, на мой взгляд не проходит проверки банальной логикой.

    • #12070
      roman
      Участник

      уважаемый andrewk, а что вы тогда скажете насчет System (Hypervisor) call interrupt?

    • #12071
      andrewk
      Участник

      roman, what would you like to hear?

    • #12072
      roman
      Участник

      ваше мнение по поводу реализации hypervisor call interrupt. Ни для кого не секрет, что со стороны клиента идут эти вызовы, и на это тратятся ресурсы системного процессора. Это факт. Вопрос в следующем. Где обрабатывает hypervisor эти вызовы. На системном процессоре или в FSP? Неужели те функции, которые выполняет hypervisor разумно делать в FSP?
      И как вы прокомментируете эту цитату:
      “The POWER Hypervisor call interrupt is a special variety of the sc (system
      call) instruction. The parameters to a POWER Hypervisor call are passed in
      registers using the PowerPC Application Binary Interface (ABI) definitions.
      This ABI specifies an interface for compiled application programs to system
      software. A copy of the ABI specification can be found at:
      http://www.linuxbase.org/spec/ELF/ppc64
      In contrast to the PowerPC ABI, passing parameters by reference are avoided
      in POWER Hypervisor calls. This minimizes the address translation problem
      that parameters passed by reference would cause because address
      translation is disabled automatically when interrupts are invoked. Input
      parameters may be indexes. Output parameters may be passed in the
      registers and require special in-line assembler code on the part of the caller.”

    • #12073
      andrewk
      Участник

      I don’t see a problem. All hypervisor calls are indeed syscalls from the point of view of AIX. They are executed on a FSP’s CPU. Could you tell me, on which CPU is executed this or that instruction? You can’t. You don’t have any possibility to trace that. What’s the difference for you, as the user, if the instruction is executed on one of your Power7/6/5 CPUs or on FSP’s CPU, which is also a Power CPU? Both are using PowerPC ABI, if you didn’t know it.
      As I told, I don’t want to assure you, that only I say right. You can believe further in what you’d like. If it doesn’t pass to your logic, the same as to Gremlin’s, it doesn’t mean, that I say something wrong, it does mean, that your logic is corrupt, sorry. You misunderstand something – as with this quote. I don’t see any difference in what I say and what you quoted.

    • #12074
      andrewk
      Участник

      make one experiment – try to remove FSP from the server and switch it (the server) on. After that try to think and to understand, why it is so.

    • #12075
      Gremlin
      Участник

      andrewk, извините, но ваш эксперимент – как раз пример “corrupt logic”.
      Не могли бы вы хотя бы названия документов сказать, в которых написано, что гипервизор выполняется на FSP? Интересно, откуда пошло такое убеждение?
      Также интересно, почему ИБМ нигде явно не указывает, где физически выполняется код гипервизора. Я только в одном документе нашёл следующее:

      Converged Hypervisor (PHYP) – This is the layer of code that the Flexible Service Processor loads when IPLing the system. PHYP is the one responsible for controlling the division of processors and memory, allocating the I/O hardware to appropriate partitions, and creating the Virtual Control Panel and Virtual Service Processor for each Logical Partition. PHYP owns a small portion of memory, but does not have any I/O hardware allocated to it. CPU processing time is “borrowed” from other Logical Partitions.

    • #12076
      andrewk
      Участник

      Your quote says the same, as I told you:
      “This is the layer of code that the Flexible Service Processor loads when IPLing the system.”
      Again – PHYP is no more than a small module for FSP.
      If you’d like to know, where I received this sacral knowledge, you can write me a PM, I’ll answer. But I warn – it will not help you 🙂

    • #12082
      roman
      Участник

      make one experiment – try to remove FSP from the server and switch it (the server) on. After that try to think and to understand, why it is so.

      ну это вообще интересный эксперимент;)
      как вы себе представляете такую работу, если, учитывая что
      1) код hypervisor’а расположен в FSP (а где он еще должен быть, только здесь и нигде больше);
      2) при power on сервера код hypervisor всегда подгружается;
      3) общие принципы паравиртуализации
      это работать не будет по определению, я даже экспериментировать не буду.

      Во-вторых, неужели вы думаете, что передача вызовов осуществляется между system processor и FSP? Тогда возникает вопрос: по какой шине? Как эта передача отразится на скорости обслуживания? И вообще как hypervisor получает доступ к регистрам основного процессора, через которые передаются параметры?

    • #12083
      roman
      Участник

      кстати, вот еще интересная цитата (только нашел):
      “The POWER4 processor introduced support for logical partitioning with a new
      privileged processor state called POWER Hypervisor mode
      . It is accessed using
      POWER Hypervisor calls, which are generated by the operating system’s kernel
      running in a partition. POWER Hypervisor mode allows for a secure mode of
      operation that is required for various system functions where logical partition
      integrity and security are required. The POWER Hypervisor validates that the
      partition has ownership of the resources it is attempting to access, such as
      processor, memory, and I/O, then completes the function. This mechanism
      allows for complete isolation of partition resources.
      In the POWER5 processor, further design enhancements are introduced that
      enable the sharing of processors by multiple partitions. The POWER Hypervisor
      Decrementer (HDEC) is a new hardware facility in the POWER5 design that is
      programmed to provide the POWER Hypervisor with a timed interrupt
      independent of partition activity. The HDEC is described in “POWER Hypervisor
      Decrementer” on page 33. HDEC interrupts are routed directly to the POWER
      Hypervisor, and use only POWER Hypervisor resources to capture state
      information from the partition. The HDEC is used for fine-grained dispatching of
      multiple partitions on shared processors. It also provides a means for the
      POWER Hypervisor to dispatch physical processor resources for its own
      execution
      .”

    • #12084
      andrewk
      Участник

      roman, I can’t comment everything, what you find in the Internet 🙂 I say again – 1) I signed NDA and because of that I can’t answer most of your questions – I am not sure, if I breach the NDA in that case or not. 2) I don’t know EVERYTHING. I am not a specialist in FSP/PHYP/Hardware, I am an AIX administrator with deep (I hope) knowledge on the virtualisation. I note only, that all of your quotes do not contradict what I said.
      You draw the right conclusion in your answer, and if you think a little on this, you’ll find also an answer for all of your other questions and understand, what I mean.

    • #12085
      roman
      Участник

      источник цитаты: redbook sg245768
      еще одна цитата из sg247590:
      “Unused cycles in a shared-processor pool is spent in POWER Hypervisor’s idle
      loop. The POWER Hypervisor enters this loop when all partition entitlements are
      satisfied and there are no partitions to dispatch. The time spent in Hypervisor’s
      idle loop, measured in ticks, is called the Pool Idle Count.”

    • #12088
      Gremlin
      Участник

      В чем-то andrewk, конечно, прав. С точки зрения простого пользователя/администратора действительно всё равно, где выполняется этот самый гипервизор. С точки зрения железячника или человека, пытающегося выяснить, как оно в деталях работает, не всё равно. И логика у этих подходов тоже разная.
      Я вот всё думаю, почему же нигде явно не говорится, что гипервизор выполняется там-то и там-то. Может потому, что если чётко сказать, что гипервизор использует ресурсы центральных процессоров сервера, то сразу посыпятся вопросы: “а сколько именно он забирает???” Ведь с отъеданием памяти для гипервизора постоянно такой вопрос возникает. И задумается народ об издержках виртуализации и о том, что ничего не даётся бесплатно, в том числе и максимальная гибкость и удобство технологии PowerVM. А зачем лишние сомнения нужны? Они только продажам помешают.

    • #12089
      roman
      Участник

      виртуализация дает очень многое – оптимальное использование ресурсов. И я думаю, это с лихвой окупается теми накладными расходами, которые несет в себе реализация этой виртуализации:) А не рассказывают, наверное, потому что это не всем интересно

    • #12096
      Serg
      Участник

      [attachment]2011-04-20_180504.png[/attachment]

      все таки похоже hypervisor выполняется на рабочих процессорах а не fsp. должен же он какие то инструкции выполнять недоступные lpar-ам.

    • #12097
      roman
      Участник

      а вложение где?

    • #12098
      Serg
      Участник

      не загрузилось) не загружая гипервизор на power и не контролируя определенные инструкции я так понимаю невозможно достичь eal4+ для lpar-ов.

    • #12103
      Serg
      Участник
    • #12312
      Gremlin
      Участник

      Подниму тему, благо на интересный материал наткнулся.

      The POWER Hypervisor can also reset and reload the Service Processor. It will automatically invoke a
      reset/reload of the SP if an error is detected. If the SP doesn’t respond and the reset/reload threshold is
      reached, the POWER Hypervisor will initiate an orderly shutdown of the system. A downloadable no charge firmware update enables redundant Service Processor failover in properly configured i5-595, p5-
      595, p5-590 and p5-570 servers. Once installed, if the error threshold for the failing SP is reached, the
      system will initiate a failover from one Service Processor to the backup. Types of SP errors:
      • Configuration I/O failure to the SP
      • Memory-mapped I/O failure to the SP
      • SP PCI-X/PCI bridge freeze condition
      A Service Processor reset/reload is not disruptive and does not affect system operation. SP resets can
      be initiated by either the POWER Hypervisor or the SP itself. In each case, the system, if necessary, will
      initiate a smart dump of the SP control store to assist with problem determination if required.

      Отсюда: IBM POWER5 Processor-based Servers: A Highly Available Design for Business-Critical Applications

      Там, кстати, ещё шедевральная фраза есть:

      Finally, only in the case where the corrupt data is used by the POWER Hypervisor would the entire system be terminated and automatically rebooted, preserving overall system integrity.

      Это на тему внезапных падений машины целиком со всей кучей разделов. В общем, хорошо, что щас у нас есть Power7 с технологией Active Memory Mirroring for Hypervisor…

    • #12313
      Sever
      Участник

      Active Memory Mirroring for Hypervisor – опция. Доступна только для 795ой машины.

    • #12314
      Gremlin
      Участник

      Ну она скорее функция, так как feature code не требует.
      И да, покупайте только 795-ые :laugh:

Просмотр 56 веток ответов
  • Для ответа в этой теме необходимо авторизоваться.