Гибернация (Suspend/Resume) для IBM i


Главная Форумы IBM i (OS/400) Гибернация (Suspend/Resume) для IBM i

В этой теме 56 ответов, 9 участников, последнее обновление  Gremlin 6 года/лет, 7 мес. назад.

  • Автор
    Сообщения
  • #12002

    Sever
    Участник

    допилили

    From the RFA:
    PowerVM includes support for an IBM i 7.1 partition to be suspended, and later resumed. Using Suspend/Resume, clients can perform long-term suspension of partitions, which frees server resources used by that partition, and later resume operation of that partition and its applications on the same server.

    http://ibmsystemsmag.blogs.com/i_can/2011/04/suspend-my-i.html

    ===========================================================
    Requirements for Suspend / Resume:
    IBM i 7.1, or later, is required.
    All I/O resources must be virtualized using VIOS.
    All partition storage must be external.
    Either an HMC or SDMC must be used to manage the partitions.
    The partition must be resumed on the same server on which it was suspended.
    POWER7 firmware: Ax730_xxx, or later, is required.
    VIOS 2.2.0.12-FP24 SP02, or later, is required.
    ===========================================================

    дык 730ых прошивок еще нет :laugh:
    и консолей 7.730 нету

  • #12005

    Oldnick
    Участник

    все дружно переходим на VIOS !

  • #12012

    Sever
    Участник

    VIOS — тяжелое наследие прошлого.
    Его функции скорее всего скоро перенесут в гипервизор.

  • #12013

    andrewk
    Участник

    never ever 🙂

  • #12014

    Sever
    Участник

    никогда не говори никогда
    нет таких решений, которые IBM не может не принять ради ревеню 😉
    А сейчас функции конфигурации виртуализации дублируются…

    Весь этот функционал можно засунуть в графический интерфейс консоли.
    Это удобно. И это совпадает с линией IBM на централизацию управления и контроля над всей инфраструктурой из одной точки.

  • #12016

    Gremlin
    Участник

    Есть у меня подозрения, что гибкая виртуализация I/O устройств плохо вписывается в существующую концепцию «small and tiny» hypervisor. Ему тогда придётся стать большим и страшным, и потребует сильного пересмотра всей архитектуры.

  • #12018

    Sever
    Участник

    Пересмотр и так идет. Функции управления передаются на верхние уровни. Так легче централизовать управление и упростить многие функции. Продать такие решения можно за бОльшие деньги.

  • #12019

    pre
    Участник

    Согласен, что VIOS — тяжелое наследие.

    Правда вот требования для обеспечения Suspend/Resume сильно смахивают на оные к live partition mobility для AIX и Linux. Что опять же наводит на мысль, что по другому они (IBM) просто пока не могут — портируются готовые решения.

  • #12021

    andrewk
    Участник

    VIOS — наше светлое настоящее. И совсем не тяжелое наследие. Не надо ничего пересматривать. У IBM действительно лучшее решение по виртуализации на рынке.

  • #12023

    pre
    Участник

    Виртуализация не самоцель, а способ раздать ресурсы.

  • #12025

    andrewk
    Участник

    именно. и способ IBM пока что лучший 😉

  • #12026

    roman
    Участник

    тогда будет интересно услышать мнение andrewk по следующим вопросам, если VIOS — наше светлое настоящее:
    1) для чего тогда используют NPIV, и зачем выделять целую партицию под VIOS, если те незначительные расходы по маршрутизации запросов можно переложить на hypervisor; я так понимаю, это следующий шаг в виртуализации storage после vscsi;
    2) для чего тогда использовать hardware-виртуализацию IVE (обратно же забирая работу VIOS); я так понимаю, это следующий шаг в виртуализации LAN после virtual ethernet.

  • #12027

    Дмитрий
    Участник

    дык 730ых прошивок еще нет :laugh:
    и консолей 7.730 нету

    Также как и VIOS 2.2.0.12-FP24 SP02 еще не выложили 🙂

  • #12029

    andrewk
    Участник

    roman, you understand incorrectly 🙂
    yes, you and sever are right, that every task can be moved to PHYP, and it can do the same things, as VIO. But in this case PHYP will shortly be as VMware — the same bloatware. And more — we will receive the same problems with performance, as VMware has. As far as I remember, there are no VMware benchmarks, e.g. for TPC-C, because VMware forbids the publications of these benchmarks. Do you know, why? I suppose, you know 🙂
    The 2nd problem with bloat hypervisor is resources. As for now PHYP is executed on its own CPU (PPC604e afair) and has its own flash memory. It doesn’t use server’s CPU and storage, because they are much more important for business applications, as for virtualization.
    Having such small PHYP we receive a very good performance in micropartitioning and other techonologies, which don’t require I/O (mostly storage) virtualization.
    But I/O virtualization is also important. Because of that we have VIOS. VIOS is a sort of appliance, which does only I/O virtualization. It per se can’t virtualize your CPUs or RAM. While I/O virtualization requires usually more resources as a small hypervisor, VIOS was moved to a normal userspace — we need to create an additional LPAR, which uses our RAM, CPUs, storage. It has such advantage, that we use «normal» Power CPUs, and I/O virtualization works with good (suitable) performance. Because we have a «normal» LPAR, we can install two VIOSes and make a cluster of them, which makes better availability. If we’d have all of these functions only in PHYP, we could not make a cluster — we’d be required to buy a second PHYP, but it can only be done for Hi-End models. In case of I/O virtualization on the level of LPAR you can implement HA even on Power710.
    Now back to the basics 🙂 Why NPIV and IVE are not our bright future.
    NPIV is a very good technology, but everything has its own problems. It seems, that you never worked with NPIV in real BIG enterprise environment. If you have 50 LPARs on the host, you need to make 50 vfchosts for storage and 50 vfchosts for tapes on one VIO. And the same on the second VIO. It is quite easy to make them and arrange to the client LPARs. No problem. The problem begins with client LPARs — you’ll receive a lot of performance problems and lot of strange problems with FC. Do you know how much memory do you need for this configuration? I don’t want to look at the Infocenter — but you can do it for me. I will say only, that it will be more than 32GB per VIO afair. The official answer of IBM — «Memory is cheap, buy more». Now compare this to the requirements of VSCSI. It’s a homework for this WE 🙂
    The 2nd problem with NPIV, which I was pointed from one of the readers of my blog, is that we need to install on all of these 50 LPARs storage drivers. If we are for simplicity (and against complexity) we’d rather install all of these drivers on one (two) VIO(s) and manage all problems with them in one (two) point(s).
    As for IVE — it’s the worst invention of IBM. Please read once a redbook on IVE and you understand, why is it so. I never recommended to use IVE to any of my clients, and as far as I can see, nobody uses it.
    What awaits us in the future is VIOS NextGen with its shared storage pools. As for now it’s the only «next step» in the IBM virtualization. The 2nd big step is SDMC — it has nothing common with VIO and PHYP (as for now), but nevertheless it is our future.

    Sorry for english — I don’t have russian keyboard on my job and can’t reconfigure my PC 🙁

  • #12030

    roman
    Участник

    спасибо за объяснение:) Очень интересно было почитать.
    Еще один вопрос насчет IVE. Я читал redbook redp4340. Какие серьезные недостатки имеет эта технология?

  • #12031

    Gremlin
    Участник

    Еще один вопрос насчет IVE. … Какие серьезные недостатки имеет эта технология?

    Один сходу назову: если IVE поломается, то для его замены придётся выключать всю машину и останавливать все разделы.

  • #12033

    Gremlin
    Участник

    As for now PHYP is executed on its own CPU (PPC604e afair) and has its own flash memory. It doesn’t use server’s CPU and storage, because they are much more important for business applications, as for virtualization.(

    andrewk, are you sure with that?
    Вроде бы, начиная с поколения Power5, гипервизор всегда запускается на процессорах самого сервера, резервируя под свои нужды часть оперативной памяти этого же сервера. И уже потом происходит распределение ресурсов разделам. Это хранится он на флэшке в сервисном процессоре и стартует оттуда.

  • #12034

    andrewk
    Участник

    1. you need to plan your usage of IVE before you use it. The maximum amount of ports and their performance are dependent on Multi Core Scaling value (MCS). To change the MCS you need to reboot the whole server. In a dynamic environment, where the amount of LPARs changes daily, you can’t daily recycle the power.

    2. if you want to use SEA on top of IVE you will need to reserve the whole physical port for one LPAR. So the promiscous mode works on IVE. You don’t have anymore any advantages of virtualization.

    3. if you’d like to use Etherchannel on one LPAR, all LPARs which connected to the same physical port of IVE, should also have Etherchannels.

    4. you can’t dynamically add or remove VLANs on IVE port. You know, what it means, don’t you? 😉

    5. and yes — as already Gremlin wrote, you need to stop the whole server, if you need to change your broken IVE.

    6. earlier was also one more problem, but it seems to be fixed in the latest versions of AIX — IVE can be «etherchannelled» only with IVE.

  • #12035

    andrewk
    Участник

    Gremlin, i’m sure. PHYP uses the RAM of the server, but it doesn’t use CPU, because it has its own. «Service Processor» (FSP) is indeed a board with CPU, flash and its own version of Linux on it (psst, I didn’t tell it 🙂

  • #12036

    Serg
    Участник

    [quote quote="roman" post=11334]Еще один вопрос насчет IVE. … Какие серьезные недостатки имеет эта технология?

    Один сходу назову: если IVE поломается, то для его замены придётся выключать всю машину и останавливать все разделы.[/quote]
    а если planar сломается?)

  • #12037

    andrewk
    Участник

    а если planar сломается?)

    you know the difference between planar and expansion card 😉

  • #12038

    Serg
    Участник

    а вообще сетевые возможности в vmware богаче и реализованы лучше.)
    кстати вполне не плохие сапсы)
    http://download.sap.com/download.epd?context=40E2D9D5E00EEF7C1AB8A5873709BD5032A48D77A8A3FFD8F71D1611A257A8A3

  • #12039

    Serg
    Участник

    [quote quote="dianin" post=11340]
    а если planar сломается?)

    you know the difference between planar and expansion card ;-)[/quote]

    они не ломаются?)))

  • #12040

    Gremlin
    Участник

    Всё ломается. Просто одно меняется на лету, а другое нет.
    Поэтому кстати Ethernet порты на планаре тоже использовать не стоит.

  • #12041

    andrewk
    Участник

    and good SAPs 🙂
    http://download.sap.com/download.epd?context=40E2D9D5E00EEF7C83E16881038C2A048628580F1C646F72AC52B9A6844171CA

    http://download.sap.com/download.epd?context=40E2D9D5E00EEF7CD64B051DE232B412800A3B0D572F05FE6ED17D849ABE4093

    if you look precisely at SAP benchmarks, you’ll see that VMware results are on the level with the results of 5-10 years ago.

  • #12042

    andrewk
    Участник

    [table]
    [tr]
    [td]Date[/td]
    [td]Partner[/td]
    [td]Users[/td]
    [td]SAPS[/td]
    [td]OS[/td]
    [td]RDBMS[/td]
    [td]CPUs[/td]
    [td]CPU[/td]
    [td]DB RAM[/td]
    [td]App Servers[/td]
    [/tr]
    [tr]
    [td]3/26/2001[/td]
    [td]Unisys[/td]
    [td]14400[/td]
    [td]73030[/td]
    [td]Windows 2000[/td]
    [td]MS SQL Server 2000[/td]
    [td]24[/td]
    [td]Pentium III Xeon[/td]
    [td]8192[/td]
    [td]73 x Enterprise Server ES5085 8-way, Pent III Xeon 700 MHz[/td]
    [/tr]
    [tr]
    [td]3/9/1998[/td]
    [td]Sun[/td]
    [td]14400[/td]
    [td]78750[/td]
    [td]Solaris 2.6[/td]
    [td]Oracle 8.0.4[/td]
    [td]64[/td]
    [td]UltraSparc II[/td]
    [td]28672[/td]
    [td]6 x SUN 10000, 64-way SMP, UltraSparc II, 336 MHz, + 1x SUN 3500, 7-way UltraSparc II, 336 MHz[/td]
    [/tr]
    [tr]
    [td]7/9/1999[/td]
    [td]IBM[/td]
    [td]16640[/td]
    [td]83450[/td]
    [td]AIX 4.3.3 (DB) / AIX 4.3.2 (Apps.)[/td]
    [td]Oracle 8.0.5[/td]
    [td]24[/td]
    [td]RS64-III[/td]
    [td]32768[/td]
    [td]128 x RS/6000 SP H50, 4-way SMP, 32 x RS/6000 SP 43P-260, 2-way SMP[/td]
    [/tr]
    [tr]
    [td]4/14/2010[/td]
    [td]Fujitsu[/td]
    [td]16000[/td]
    [td]87800[/td]
    [td]SuSE Linux Enterprise Server 10 on VMware ESX Server 4.0[/td]
    [td]MaxDB 7.8[/td]
    [td]2[/td]
    [td]Intel Xeon Processor X5570[/td]
    [td]98304[/td]
    [td]Total of 7 Application Servers: 6 Dialog/Update servers, 1 Dialog/Update/Message/Enqueue server: Fujitsu PRIMERGY BX900 S1, 2 processors / 8 cores / 16 threads, Intel Xeon X5560 2.80 GHz, 64 KB L1 cache and 256 KB L2 cache per core, 8 MB L3 cache per processor, 36 GB main memory[/td]
    [/tr]
    [tr]
    [td]6/17/2004[/td]
    [td]HP[/td]
    [td]17184[/td]
    [td]88100[/td]
    [td]HP-UX 11i[/td]
    [td]Oracle 10g[/td]
    [td]8[/td]
    [td]Intel Itanium 2[/td]
    [td]24576[/td]
    [td](total 29) 24 Dialog servers: HP Integrity Model rx4640, 4-way SMP Intel Itanium 2 1.5 GHz, 32 KB L1 cache, 256KB L2 cache, 6MB L3 cache, 16GB main memory / 4 Update servers: HP Integrity Model rx4640, 4-way SMP Intel Itanium 2 1.5 GHz, 32KB L1 cache, 256KB L2 cache, 6MB L3 cache, 16GB main memory [/td]
    [/tr]
    [tr]
    [td]6/27/2005[/td]
    [td]HP[/td]
    [td]18000[/td]
    [td]90950[/td]
    [td]Windows Server 2003 Enterprise Edition (64-bit) (DB), Windows Server 2003 Enterprise Edition (32-bit) (Apps)[/td]
    [td]SQL Server 2005 (64-bit)[/td]
    [td]4[/td]
    [td]Dual-core AMD Opteron processor Model 875[/td]
    [td]32768[/td]
    [td](total 33) [/td]
    [/tr]
    [tr]
    [td]4/23/2001[/td]
    [td]Unisys[/td]
    [td]18500[/td]
    [td]92970[/td]
    [td]Windows 2000[/td]
    [td]MS SQL Server 2000[/td]
    [td]32[/td]
    [td]Pentium III Xeon[/td]
    [td]12288[/td]
    [td]92 x Enterprise Server ES5085 8-way, Pent III Xeon 700 MHz[/td]
    [/tr]
    [/table]

  • #12045

    Serg
    Участник

    and good SAPs 🙂
    http://download.sap.com/download.epd?context=40E2D9D5E00EEF7C83E16881038C2A048628580F1C646F72AC52B9A6844171CA

    http://download.sap.com/download.epd?context=40E2D9D5E00EEF7CD64B051DE232B412800A3B0D572F05FE6ED17D849ABE4093

    if you look precisely at SAP benchmarks, you’ll see that VMware results are on the level with the results of 5-10 years ago.

    дак это монстры))) single image системы.) с ценой миллионов под 100 вторая ссылка особенно)
    а тут 7 вшивеньких двух юнитовых сервачка под vmware)

  • #12047

    Serg
    Участник

    а если посмотреть на http://www.spec.org/
    CPU2006 можно вообще веру в Power потерять) Xeon-ы делают и P6 и P7)

  • #12050

    Serg
    Участник

    Всё ломается. Просто одно меняется на лету, а другое нет.
    Поэтому кстати Ethernet порты на планаре тоже использовать не стоит.

    Истинная логика нашего мира — это подсчет вероятностей. Максвелл ) надежную конфигурацию можно придумать и с виосом и с ive.

  • #12053

    Gremlin
    Участник

    Да я не про то. IVE является single point of failure. К тому же требует остановки всей машины для его замены. Придумайте тут надёжную конфигурацию.

  • #12054

    Michael
    Участник

    Да я не про то. IVE является single point of failure. К тому же требует остановки всей машины для его замены. Придумайте тут надёжную конфигурацию.

    Надо не одну, а две машины, однако! :laugh:

  • #12055

    Gremlin
    Участник

    Gremlin, i’m sure. PHYP uses the RAM of the server, but it doesn’t use CPU, because it has its own. «Service Processor» (FSP) is indeed a board with CPU, flash and its own version of Linux on it (psst, I didn’t tell it 🙂

    Не могу согласиться. Это никакой логике не соответствует. Вот крутится он на своём мелком процессоре, а память берёт из самого сервера. Это физически как возможно?
    Насколько я понимаю концепцию гипервизора, он в любом случае работает на том самом железе, которое потом раздаёт гостевым системам.

  • #12056

    andrewk
    Участник

    I don’t know «concept of hypervisor», I know PHYP 🙂

  • #12057

    Gremlin
    Участник

    Тогда объясните, пожалуйста, как тот процессор внутри FSP одновременно обеспечивает работу гипервизора (который при этом использует память сервера каким-то образом) да ещё и интерфейс ASMI крутит, и много чего ещё. И для чего тогда нужна оперативная память внутри FSP?

  • #12058

    roman
    Участник

    «The POWER Hypervisor uses some system processor and memory resources (a small percentage). These resources are associated with virtual memory management (VMM), the POWER Hypervisor dispatcher, virtual processor data structures (including save areas for virtual processor), and for queuing of
    interrupts. The impact on performance should be minor for most workloads, but the impact increases with extensive amounts of page-mapping activity.»

    и еще одна цитата:
    «The POWER Hypervisor has no specific or dedicated processor resources assigned to it.»

  • #12059

    andrewk
    Участник

    насколько я знаю, ОЗУ (в привычном понимании) на плате FSP нет. Но я давно внутрь не лазил. FSP — это набор программ, которые выполняются на этой плате. PHYP — всего лишь одна из программ. Еще раз — никаких процессорных ресурсов PHYP сам по себе не жрет, поскольку исполняется на отдельном CPU. В памяти сервера он хранит информацию об устройствах, об их распределении между LPAR’ами, активные профили LPAR’ов. Если не хотите — можете мне не верить 🙂 Информацию Вы на этот счет все равно скорее всего не найдете, я ее больше выдать не в состоянии — во-1) я не разработчик FSP и внутрь не лазил, только доки читал, во-2) есть NDA и поэтому я не могу рассказать подробности взаимодействия FSP и сервера (хотя догадаться там совсем не сложно и без всякой документации, и без подсказок).

  • #12069

    Gremlin
    Участник

    В редбуках по младшим серверам Power5 была подробная схема устройства FSP. На которой видно, что сервисный процессор — это своего рода компьютер в компьютере, со своим CPU, флэш-памятью, ОЗУ и собственной операционной системой. А все настройки LPAR’ов хранятся одновременно и в сервисном процессоре, и в HMC.
    Повторюсь, предположение о том, что гипервизор выполняется внутри сервисного процессора, на мой взгляд не проходит проверки банальной логикой.

  • #12070

    roman
    Участник

    уважаемый andrewk, а что вы тогда скажете насчет System (Hypervisor) call interrupt?

  • #12071

    andrewk
    Участник

    roman, what would you like to hear?

  • #12072

    roman
    Участник

    ваше мнение по поводу реализации hypervisor call interrupt. Ни для кого не секрет, что со стороны клиента идут эти вызовы, и на это тратятся ресурсы системного процессора. Это факт. Вопрос в следующем. Где обрабатывает hypervisor эти вызовы. На системном процессоре или в FSP? Неужели те функции, которые выполняет hypervisor разумно делать в FSP?
    И как вы прокомментируете эту цитату:
    «The POWER Hypervisor call interrupt is a special variety of the sc (system
    call) instruction. The parameters to a POWER Hypervisor call are passed in
    registers using the PowerPC Application Binary Interface (ABI) definitions.
    This ABI specifies an interface for compiled application programs to system
    software. A copy of the ABI specification can be found at:
    http://www.linuxbase.org/spec/ELF/ppc64
    In contrast to the PowerPC ABI, passing parameters by reference are avoided
    in POWER Hypervisor calls. This minimizes the address translation problem
    that parameters passed by reference would cause because address
    translation is disabled automatically when interrupts are invoked. Input
    parameters may be indexes. Output parameters may be passed in the
    registers and require special in-line assembler code on the part of the caller.»

  • #12073

    andrewk
    Участник

    I don’t see a problem. All hypervisor calls are indeed syscalls from the point of view of AIX. They are executed on a FSP’s CPU. Could you tell me, on which CPU is executed this or that instruction? You can’t. You don’t have any possibility to trace that. What’s the difference for you, as the user, if the instruction is executed on one of your Power7/6/5 CPUs or on FSP’s CPU, which is also a Power CPU? Both are using PowerPC ABI, if you didn’t know it.
    As I told, I don’t want to assure you, that only I say right. You can believe further in what you’d like. If it doesn’t pass to your logic, the same as to Gremlin’s, it doesn’t mean, that I say something wrong, it does mean, that your logic is corrupt, sorry. You misunderstand something — as with this quote. I don’t see any difference in what I say and what you quoted.

  • #12074

    andrewk
    Участник

    make one experiment — try to remove FSP from the server and switch it (the server) on. After that try to think and to understand, why it is so.

  • #12075

    Gremlin
    Участник

    andrewk, извините, но ваш эксперимент — как раз пример «corrupt logic».
    Не могли бы вы хотя бы названия документов сказать, в которых написано, что гипервизор выполняется на FSP? Интересно, откуда пошло такое убеждение?
    Также интересно, почему ИБМ нигде явно не указывает, где физически выполняется код гипервизора. Я только в одном документе нашёл следующее:

    Converged Hypervisor (PHYP) — This is the layer of code that the Flexible Service Processor loads when IPLing the system. PHYP is the one responsible for controlling the division of processors and memory, allocating the I/O hardware to appropriate partitions, and creating the Virtual Control Panel and Virtual Service Processor for each Logical Partition. PHYP owns a small portion of memory, but does not have any I/O hardware allocated to it. CPU processing time is «borrowed» from other Logical Partitions.

  • #12076

    andrewk
    Участник

    Your quote says the same, as I told you:
    «This is the layer of code that the Flexible Service Processor loads when IPLing the system.»
    Again — PHYP is no more than a small module for FSP.
    If you’d like to know, where I received this sacral knowledge, you can write me a PM, I’ll answer. But I warn — it will not help you 🙂

  • #12082

    roman
    Участник

    make one experiment — try to remove FSP from the server and switch it (the server) on. After that try to think and to understand, why it is so.

    ну это вообще интересный эксперимент;)
    как вы себе представляете такую работу, если, учитывая что
    1) код hypervisor’а расположен в FSP (а где он еще должен быть, только здесь и нигде больше);
    2) при power on сервера код hypervisor всегда подгружается;
    3) общие принципы паравиртуализации
    это работать не будет по определению, я даже экспериментировать не буду.

    Во-вторых, неужели вы думаете, что передача вызовов осуществляется между system processor и FSP? Тогда возникает вопрос: по какой шине? Как эта передача отразится на скорости обслуживания? И вообще как hypervisor получает доступ к регистрам основного процессора, через которые передаются параметры?

  • #12083

    roman
    Участник

    кстати, вот еще интересная цитата (только нашел):
    «The POWER4 processor introduced support for logical partitioning with a new
    privileged processor state called POWER Hypervisor mode
    . It is accessed using
    POWER Hypervisor calls, which are generated by the operating system’s kernel
    running in a partition. POWER Hypervisor mode allows for a secure mode of
    operation that is required for various system functions where logical partition
    integrity and security are required. The POWER Hypervisor validates that the
    partition has ownership of the resources it is attempting to access, such as
    processor, memory, and I/O, then completes the function. This mechanism
    allows for complete isolation of partition resources.
    In the POWER5 processor, further design enhancements are introduced that
    enable the sharing of processors by multiple partitions. The POWER Hypervisor
    Decrementer (HDEC) is a new hardware facility in the POWER5 design that is
    programmed to provide the POWER Hypervisor with a timed interrupt
    independent of partition activity. The HDEC is described in “POWER Hypervisor
    Decrementer” on page 33. HDEC interrupts are routed directly to the POWER
    Hypervisor, and use only POWER Hypervisor resources to capture state
    information from the partition. The HDEC is used for fine-grained dispatching of
    multiple partitions on shared processors. It also provides a means for the
    POWER Hypervisor to dispatch physical processor resources for its own
    execution

  • #12084

    andrewk
    Участник

    roman, I can’t comment everything, what you find in the Internet 🙂 I say again — 1) I signed NDA and because of that I can’t answer most of your questions — I am not sure, if I breach the NDA in that case or not. 2) I don’t know EVERYTHING. I am not a specialist in FSP/PHYP/Hardware, I am an AIX administrator with deep (I hope) knowledge on the virtualisation. I note only, that all of your quotes do not contradict what I said.
    You draw the right conclusion in your answer, and if you think a little on this, you’ll find also an answer for all of your other questions and understand, what I mean.

  • #12085

    roman
    Участник

    источник цитаты: redbook sg245768
    еще одна цитата из sg247590:
    «Unused cycles in a shared-processor pool is spent in POWER Hypervisor’s idle
    loop. The POWER Hypervisor enters this loop when all partition entitlements are
    satisfied and there are no partitions to dispatch. The time spent in Hypervisor’s
    idle loop, measured in ticks, is called the Pool Idle Count.»

  • #12088

    Gremlin
    Участник

    В чем-то andrewk, конечно, прав. С точки зрения простого пользователя/администратора действительно всё равно, где выполняется этот самый гипервизор. С точки зрения железячника или человека, пытающегося выяснить, как оно в деталях работает, не всё равно. И логика у этих подходов тоже разная.
    Я вот всё думаю, почему же нигде явно не говорится, что гипервизор выполняется там-то и там-то. Может потому, что если чётко сказать, что гипервизор использует ресурсы центральных процессоров сервера, то сразу посыпятся вопросы: «а сколько именно он забирает???» Ведь с отъеданием памяти для гипервизора постоянно такой вопрос возникает. И задумается народ об издержках виртуализации и о том, что ничего не даётся бесплатно, в том числе и максимальная гибкость и удобство технологии PowerVM. А зачем лишние сомнения нужны? Они только продажам помешают.

  • #12089

    roman
    Участник

    виртуализация дает очень многое — оптимальное использование ресурсов. И я думаю, это с лихвой окупается теми накладными расходами, которые несет в себе реализация этой виртуализации:) А не рассказывают, наверное, потому что это не всем интересно

  • #12096

    Serg
    Участник

    [attachment]2011-04-20_180504.png[/attachment]

    все таки похоже hypervisor выполняется на рабочих процессорах а не fsp. должен же он какие то инструкции выполнять недоступные lpar-ам.

  • #12097

    roman
    Участник

    а вложение где?

  • #12098

    Serg
    Участник

    не загрузилось) не загружая гипервизор на power и не контролируя определенные инструкции я так понимаю невозможно достичь eal4+ для lpar-ов.

  • #12103

    Serg
    Участник
  • #12312

    Gremlin
    Участник

    Подниму тему, благо на интересный материал наткнулся.

    The POWER Hypervisor can also reset and reload the Service Processor. It will automatically invoke a
    reset/reload of the SP if an error is detected. If the SP doesn’t respond and the reset/reload threshold is
    reached, the POWER Hypervisor will initiate an orderly shutdown of the system. A downloadable no charge firmware update enables redundant Service Processor failover in properly configured i5-595, p5-
    595, p5-590 and p5-570 servers. Once installed, if the error threshold for the failing SP is reached, the
    system will initiate a failover from one Service Processor to the backup. Types of SP errors:
    • Configuration I/O failure to the SP
    • Memory-mapped I/O failure to the SP
    • SP PCI-X/PCI bridge freeze condition
    A Service Processor reset/reload is not disruptive and does not affect system operation. SP resets can
    be initiated by either the POWER Hypervisor or the SP itself. In each case, the system, if necessary, will
    initiate a smart dump of the SP control store to assist with problem determination if required.

    Отсюда: IBM POWER5 Processor-based Servers: A Highly Available Design for Business-Critical Applications

    Там, кстати, ещё шедевральная фраза есть:

    Finally, only in the case where the corrupt data is used by the POWER Hypervisor would the entire system be terminated and automatically rebooted, preserving overall system integrity.

    Это на тему внезапных падений машины целиком со всей кучей разделов. В общем, хорошо, что щас у нас есть Power7 с технологией Active Memory Mirroring for Hypervisor…

  • #12313

    Sever
    Участник

    Active Memory Mirroring for Hypervisor — опция. Доступна только для 795ой машины.

  • #12314

    Gremlin
    Участник

    Ну она скорее функция, так как feature code не требует.
    И да, покупайте только 795-ые :laugh:

Для ответа в этой теме необходимо авторизоваться.