Серверные платформы RISC/UNIX
Серверные платформы RISC/UNIX
История проекта Alpha
Говоря о RISC/UNIX-платформах, нельзя не вспомнить проект Alpha. В 1989 году компания Digital Equipment Corporation. (DEC), подталкиваемая моральным старением собственной VAX-архитектуры и стремительным натиском перспективных RISC-платформ, принялась за создание инновационной 64-разрядной RISC-архитектуры, ориентированной на максимально возможную совместимость с системами VAX, чтобы облегчить перенос операционной системы VAX/VMS и всего наработанного за предыдущие годы сопутствующего ПО на новую, более производительную и гибкую аппаратную среду.
Первые более или менее подробные сведения об архитектуре Alpha относятся к 1992 г. Тогда же было оговорено, что термин Alpha — это кодовое наименование, и к моменту выпуска первых процессоров оно будет заменено официальным. Согласно анонсам, новая платформа имела 64-разрядную RISC-архитектуру с инструкциями фиксированной (32 бита) длины. Подробнее о процессорах Alpha можно прочитать в разделе «Процессоры».
Вскоре проект вступил в производственную стадию, все силы, связанные с ним, были реорганизованы в одно из ведущих подразделений корпорации DEC. Новая архитектура получила официальное название АХР или Alpha АХР, планировалось, что время ее активной жизни составит как минимум 25 лет.
Первый процессор из семейства Alpha имел индексное обозначение 21064, где часть 21 указывала на то, что Alpha — архитектура XXI века, 0 означал порядковый номер процессорного поколения, а 64 — разрядность архитектуры в битах. Кроме того, ему присвоили кодовое наименование EV4, которое по одной из не подтвержденных официально версий является аббревиатурой «Extended VAX». Цифра 4 на конце означает поколение технологического процесса, в данном случае это CMOS4. Интересно, что в дальнейшем кодовое название стало даже более распространенным, чем официальные индексы, и поколения процессоров семейства Alpha определяются и отсчитываются именно по нему.
Первые наборы системных микросхем для поколения EV4 были рассчитаны на использование периферийных шин TURBOchannel, FutureBus+ и XMI; однако, несмотря на техническое совершенство, они не получили широкого распространения из-за небольшого количества совместимого оборудования. В начале 1994 г. был представлен набор системных микросхем DEC Apecs в вариантах с 64- и 128-разрядной шиной данных, ориентированный на стандартные шинные архитектуры PCI и ISA/EISA, при этом работа с шинами ISA и EISA была реализована посредством внешних стандартных мостов.
Разработка реальных продуктов на базе архитектуры Alpha нисколько не отставала от процесса совершенствования ее самой — уже в ноябре 1992 г. на базе процессора EV4 с тактовой частотой 150 МГц и соответствующего системного окружения была построена первая рабочая станция архитектуры Alpha — DEC 3000 Model 500 АХР (кодовое наименование Flamingo).
Для поколения EV5 был разработан НМС DEC А1соr со следующими параметрами: частота системной шины 33 МГц, использование до 64 Мбайт внешней кэш-памяти и до 8 Гбайт оперативной памяти FPM ЕСС (при разрядности шины памяти 256 бит), совместимость с 64-разрядной 33-МГц шиной PCI. Работа с шинами ISA/EISA, как и прежде, была реализована посредством внешнего контроллера. Дисковый контроллер стандарта IDE отсутствовал, однако была предусмотрена возможность интеграции отдельной микросхемы независимых изготовителей. Одновременно с запуском в производство EV56 была выпущена модификация Alcor, поддерживающая BWX, — Alcor 2. В дальнейшем появился НМС Pyxis, обеспечивший работу с системной шиной на частоте 66 МГц и использование 66-МГц оперативной памяти SDRAM ЕСС (при разрядности шины памяти в 128 бит).
Для процессоров серии 21264 (EV6) было спроектировано два набора системных микросхем — DEC Tsunami (известных также как Typhoon) и AMD Irongate или AMD-751. Решение корпорации DEC было направлено на повышение масштабируемости платформы Alpha: на основе Tsunami проектировали однопроцессорные, двухпроцессорные и четырехпроцессорные системы с разрядностью шины памяти от 128 до 512 бит. В качестве ОЗУ использовались модули регистровой памяти SDRAM с ЕСС-коррекцией, работающие на частоте 83 МГц. НМС DEC Tsunami обеспечивал работу сразу нескольких 64-разрядных 33-МГц шин PCI. Гибкость построения конечных систем достигалась благодаря разделению НМС на множество обособленных компонентов. В распоряжении разработчиков находились контроллеры системной шины — C-chips (по одному на каждый процессор), контроллеры шины памяти — D-chips (по одному на каждые 64 разряда шины) и контроллеры шины PCI — P-chips (по одному на каждую требуемую шину). Впрочем, подобный подход имел и некоторые недостатки — в некоторых системах, например AlphaPC 264DP, совокупное число используемых микросхем доходило до 12, что отрицательно сказывалось на их конечной стоимости. НМС AMD Irongate разрабатывался изначально как «северный мост» для системных плат под процессоры Athlon, однако его также использовали в некоторых решениях для семейства Alpha — например UP1000 и UP 1100. Irongate представлял собой одну-единственную микросхему, а потому стоил намного дешевле DEC Tsunami, а, кроме того, обладал более низким энергопотреблением. Однако из-за отсутствия многопроцессорности и узкой шины памяти он не позволял серьезно раскрыться потенциалу процессоров семейства 21264.
1998 г. ознаменовался для платформы Alpha серьезными событиями, сулившими неплохое будущее — в феврале 1998 г. между DEC и Samsung было заключено соглашение, которое предоставляло последней доступ ко всем патентам по архитектуре Alpha, а также позволяло выпускать уже разработанные DEC модели и даже создавать собственные, а в июне 1998 г. уже Compaq, поглотившая к тому времени DEC, совместно с Samsung организовали альянс по развитию архитектуры Alpha. Среди прочих мер была учреждена дочерняя компания Alpha Processor Inc. (API), занявшаяся маркетинговыми вопросами и продвижением архитектуры. Летом 1998 г. началось массовое производство систем на базе EV6. Помимо Samsung, по условиям договора с DEC, процессоры EV6 производились и на мощностях корпорации Intel.
Однако процесс интеграции подразделений DEC в структуры Compaq привел к тому, что уже через полгода DEC окончательно прекратила свое существование. С этого момента фактически и начинается закат платформы Alpha.
Со времен независимости DEC платформа Alpha как открытая архитектура была ориентирована на использование целого ряда операционных систем. Речь прежде всего идет о Microsoft Windows NT, Digital UNIX (также известной как DEC OSF/l, и позднее, как Compaq Tru64 UNIX) и OpenVMS, причем приоритеты были расставлены именно в таком порядке. Кроме этих систем, на Alpha были портированы ОС независимых поставщиков и некоммерческие ОС, такие, как Linux и BSD всех разновидностей, однако никакой поддержки с официальной стороны они не получили и использовались крайне незначительно.
Среди всех известных RISC-платформ Alpha, пожалуй, единственная, которая была способна реально работать с Windows NT, ибо еще в 1997 г. корпорация Microsoft свернула поддержку архитектур PowerPC и MIPS. Однако количество приложений для Alpha было во много раз меньше, чем для х86. Частично ситуацию помогал исправить эмулятор и транслятор кода х86 в код Alpha, именуемый FX132 и выпущенный в 1996 г. Однако его использование снижало производительность систем на 40% и больше по сравнению с изначально откомпилированными под Alpha приложениями. Нерешенной ос тавалась и проблема драйверов для периферийных устройств: транслятор FXI32, естественно, оказался неприменим, а очень многие производители сочли разработку драйверов для Alpha нецелесообразной, так что заказчикам приходилось рассчитывать в основном на Microsoft и DEC. И, наконец, самый важный момент, характеризующий ошибочность выбранной DEC системы приоритетов: даже работая на 64-разрядной архитектуре Alpha, Windows NT оставалась 32-разрядной и не могла полностью раскрыть заложенный в аппаратуру потенциал.
Согласно статистике Compaq, среди всех предустановленных на Alpha-системах ОС 60% принадлежало Tru64 UNIX, 35% — OpenVMS, а на долю Windows NT приходилось около 5%. Очевидно, что дальнейшие работы над этой ОС были бессмысленны. Учитывая сложившуюся ситуацию, 23 августа 1999 г. Compaq отказалась от участия в развитии Windows NT и прекратила поставлять ее со своими Alpha-системами. Неделю спустя Microsoft объявила, что прекращает работу над портированием Windows 2000 на платформу Alpha.
В декабре 1999 г. компании Compaq и Samsung подписали меморандум о намерении инвестировать 500 млн. долл. США в развитие архитектуры Alpha: Samsung — 200 млн. на отладку новых технологических процессов, a Compaq — 300 млн. на проектирование новых серверных решений и на дальнейшее развитие Тru64 UNIX. В том же месяце Compaq и IBM оформили соглашение, по которому последняя будет изготавливать процессоры Alpha по своей технологии на медных проводниках, но Samsung останется основным поставщиком процессоров Alpha. Однако в 2000 г. Samsung не успела наладить 180-нм процесс, и рынок был вынужден довольствоваться процессорами EV67 и небольшими вкраплениями EV68C. В начале 2001 г. она все же организовала массовый выпуск процессоров EV68A, однако момент был упущен — Compaq уже планировала переориентировать производство систем AlphaServer GS-класса, а также развернуть модернизацию используемых систем с применением процессора EV68C, поставляемого IBM.
25 июня 2001 г. произошло историческое событие, поставившее окончательную точку на будущем платформы Alpha: корпорация Compaq объявила о планах поэтапного перевода к началу 2004 г. всех своих серверных решений на архитектуру IA-64. Результатом этого объявления стало немедленное прекращение работ над поколением EV8. EV7 стало финалом многолетней деятельности подразделения Alpha Microprocessor Division — после официального объявления о начале производства процессоров, намеченного на начало 2002 г., оно подлежало расформированию, а костяк инженеров планировалось перевести на работу в компанию Intel. Выдержав непродолжительную паузу, Samsung и IBM прекратили производство процессоров Alpha на своих мощностях. 21 октября 2001 г. компания API, переименованная на тот момент в API Networks, передала все полномочия по поддержке Alpha-систем компании Microway — крупнейшему после Compaq сборщику рабочих станций и серверов на архитектуре Alpha и старому партнеру DEC.
На этом по логике вещей история должна была бы закончиться, однако 3 сентября 2001 г. компания HP объявила о планах по слиянию с Compaq, которые в итоге отсрочили закат платформы Alpha на десятилетие. Вопреки ожиданиям, Hewlett-Packard не только не свернула поддержку Alpha-систем, но и взяла на себя труд по выпуску процессоров и дальнейшему развитию поколения EV7, хотя и в ограниченном объеме.
В августе 2004 г. в производство была запущена последняя модификация архитектуры Alpha — процессор с кодовым именем EV7z, работающий на частоте 1,3 ГГц и изготавливаемый с применением 180-нм проектных норм. По архитектуре он не отличался от прародителя EV7.
В специальном меморандуме, вышедшем в момент объявления EV7z, было заявлено, что никаких иных воплощений архитектуры Alpha больше не будет, однако серверы и рабочие станции, созданные на ее базе, останутся доступными под маркой HP до 2006 г., а их техническое обслуживание продлится до 2011 г.
Несостоявшееся поколение EV8 (процессоры с индексом 21464) должно было стать дальнейшим развитием идей, заложенных в EV7- Предполагалось вдвое увеличить количество основных функциональных устройств, доведя число целочисленных конвейеров до восьми, а вещественных — до четырех, расширить объем кэш-памяти до 3 Мбайт, реализовать многопоточную обработку данных с использованием технологии SMT (Simultaneous Multi-Threading), которая должна была позволить одновременное выполнение до четырех программных потоков внутри одного ядра. Однако этим планам не суждено было реализоваться — EV8 никогда не увидит свет. Впрочем, история платформы Alpha на этом не обрывается — значительное количество технических специалистов перекочевало из подразделения Alpha Microprocessor Division в компанию AMD, хорошо известную на рынке систем с архитектурой х86. Там, используя свой опыт, знания и наработки, они занимались проектированием успешной платформы AMD64, во многом наследующей идеи проекта Alpha.
Серверы HP
Компания Hewlett-Packard вступила в завершающую стадию перевода своих «тяжелых» серверов с архитектуры РА-RISC (ЦП 8x00) на архитектуру IA64 (ЦП Itanium 2). Серверы AlphaServer на процессорах Alpha пока еще продаются, но их дни сочтены. Более подробно об этих архитектурах рассказано в разделе «Процессоры». Особенность переходного этапа заключается в том, что компания одновременно с новыми Itanium-серверами Integrity продолжает выпускать модели серии HP 9000. Последнее поколение этой серии строится на процессорах 8900 с тактовыми частотами 800 или 1000 МГц и наборах микросхем zxl (в младших моделях) и sx1000 (в средних и старших), таких же, как в серии Integrity.
Унификация конструктивного исполнения обеих серий максимально упрощает модернизацию серверов 9000 до соответствующих моделей Integrity — в большинстве случаев для этого достаточно извлечь старую процессорную ячейку (терминологии HP), перенести из нее модули памяти в новую и вставить новую ячейку на место старой. При работе под управлением ОС HP-UX 11i v2 для ряда моделей серверов такая замена может производиться без остановки и перезагрузки машины.
Для построения гибких масштабируемых систем масштаба предприятия серверы серий 9000 и Integrity могут объединяться в кластеры. Узлы кластера, каждый из которых представляет собой самостоятельный сервер со своими процессорами и оперативной памятью, работающий под управлением своей ОС, соединяются при помощи стандартных сетевых интерфейсов. Для связи между узлами используются специальные протоколы связи и системные процессы. В состав кластера, помимо серверов, входят также дисковые системы, устройства резервного копирования, специализированное программное обеспечение кластерных конфигураций, программное обеспечение управления информационными технологиями HP OpenView, техническая поддержка, консультационные услуги и обучение.
В зависимости от требуемого уровня отказоустойчивости предлагаются несколько типов кластерных решений, в которых серверные узлы кластера могут быть размещены централизованно (локальный кластер), распределены по соседним зданиям (кампусный кластер), распределены по нескольким территориям в пределах одного города (метро-кластер) или представляют собой два связанных кластера, размещенных в различных городах, странах или континентах (континентальный кластер).
Архитектура HP HyperPlex применяется для задач, требующих интенсивного обмена информацией между серверами (узлами интегрированной системы), например, для консолидации информационных систем предприятия, ERP-приложений, организации распределенных вычислений, технического моделирования и компьютерной имитации. Основу HyperPlex составляет специальное оборудование HyperFabric2, обеспечивающее прямое либо коммутируемое высокоскоростное соединение между узлами на скорости до 4 Гбит/сек в полнодуплексном режиме на каждый порт. Архитектура поддерживает стандартные протоколы TCP/IP и НМР (Hyper Messaging Protocol), а также кластерные конфигурации с возможностью равномерного распределения трафика по всем имеющимся каналам (балансировка нагрузки).
Большинство серверов HP могут быть сконфигурированы как в виде единой мультипроцессорной системы, так и в виде нескольких аппаратно и/или программно независимых виртуальных разделов со своими ресурсами и операционной системой.
Серверы семейства HP оснащены рядом средств обеспечения высокой готовности: резервными вентиляторами и блоками питания с «горячей» заменой; дисками и контроллерами ввода-вывода «горячего» подключения; динамической очисткой и перераспределением страниц памяти; динамическим перераспределением процессоров; независимыми гнездами PCI; интегрированной службой оповещения о событиях Event Monitoring System (EMS), работающей в режиме реального времени; встроенной расширенной системой обнаружения неисправностей с выделенным сервисным процессором и шиной.
Прогнозирование и предотвращение возможных сбоев реализуются путем непрерывного контроля состояния всех компонентов сервера и анализа тенденций изменения контролируемых показателей. При обнаружении какой-либо потенциальной проблемы, например, возможного перегрева процессора, специальные функции динамического перераспределения ресурсов (в данном случае функция DPR — Dynamic Processor Resilience) обеспечат перенос процессов с потенциально сбойного компонента на исправный без прерывания выполнения приложений. При этом администратор системы и/или служба технической поддержки получат уведомление и подробный отчет о происшедшем событии.
В состав средств повышения надежности и заблаговременного высвобождения потенциально сбойных элементов входят: CHIPKILL (защита от выхода из строя одной микросхемы памяти в модуле DIMM); динамическое высвобождение процессоров (Dynamic Processor Resilience — выполняемое без прерывания приложений высвобождение процессоров, потенциальная возможность сбоя которых выявлена в результате контроля температуры и статистики ошибок кэш-памяти); динамическое высвобождение областей памяти (Dynamic Memory Resilience — выполняемое без прерывания приложений высвобождение областей памяти, потенциальная возможность сбоя которых выявлена в результате контроля статистики ошибок).
Все серверы семейств 9000 и Integrity, кроме младших моделей, могут комплектоваться резервными процессорами, поддерживающими технологию iCOD (Instant Capacity on Demand), называемую также оплатой только в случае использования. Технология iCOD позволяет зарезервировать процессорные ресурсы на случай непредвиденного роста бизнеса и резкого увеличения нагрузки на сервер. При этом стоимость резервного процессора примерно в 25 раз меньше стоимости активного. Благодаря заложенной в iCOD возможности активизации дополнительных процессоров на лету исключается необходимость останавливать систему и приложение при вводе дополнительных процессоров или замене сбойных ЦП резервными.
Основной ОС для серверов HP 9000 и Integrity является 64-разрядная HP-UX Hi (v1 или v2), которая поставляется вместе с серверами с лицензией на неограниченное количество пользователей. На системы Integrity, кроме того, могут устанавливаться ОС Linux, Microsoft Windows Server 2003 и OpenVMS.
HP 9000
История HP 9000 неразрывно связана с 64-бит процессорами архитектуры PA-RISC. Сейчас номенклатура этой серии насчитывает более десятка моделей — от компактных серверов rp3410-2 и rp4440-8 до суперкомпьютеров Superdome, обладающих вычислительной мощностью, достаточной для работы систем управления крупными международными корпорациями с десятками тысяч одновременно работающих пользователей.
В серверах HP 9000 использовались ЦП РА-8700 (РА-8700+), затем РА-8800 и, наконец, РА-8900 — последний представитель семейства РА-RISC, самый мощный и в то же время лучше всего приспособленный для безболезненного перехода на архитектуру IA64 (Itanium 2).
Архитектура серверов серии 9000 различна — в младших моделях это симметричная многопроцессорная архитектура (SMP) в чистом виде, тогда как в старших (rp7420-16, rp8420-32, Superdome) используется гибридная архитектура, сочетающая черты ccNUMA (cache-coherent, Non-Uniform Memory Access) и SMP. Эта иерархическая модульная архитектура представляет собой совокупность вычислительных ячеек, объединенных высокоскоростными внутренними матричными крестообразными коммутаторами.
Модели начального уровня. Модели IIP 9000 гр3410-2 и гр3440-4 представляют собой многофункциональные одно-, двух- и четырехпроцессорные серверы начального уровня. Они комплектуются процессорами РА-8900 с тактовыми частотами 800 МГц или 1,0 ГГц, оперативной памятью объемом до 32 Гбайт и дисковой памятью до 900 Гбайт. Серверы серии гр34хО-х могут содержать до четырех 64-бит 133 МГц гнезд ввода-вывода PCI-X I/O. Они могут работать под управлением ОС HP-UX 11i vl или v2.
Они предназначаются для предприятий СМБ, для филиальных сетей, в качестве серверов Web- и других приложений. Обе модели размещаются в компактных шасси высотой 2U для установки в стандартную 19-дюйм стойку. Модель rp3410-2 оснащена двумя, а rp3440-4 — четырьмя разъемами для плат ввода-вывода PCI-X, в обе модели может быть установлено до трех жестких дисков. Изготовитель предлагает готовые комплекты модернизации, причем не только для превращения модели HP 9000 rp3410-2 в rp3440-4, но и для превращения серверов серии гр34хО-х в Itanium-сервер HP Integrity rx2620-2.
Модели HP 9000 rp4410-4 и rp4440-8 HP относит к начальному уровню, хотя фактически они представляют собой промежуточную ступень между серверами начального уровня и серверами масштаба предприятия среднего уровня. Первая представляет собой одно-, двух- или четырехпроцессорный сервер, вторая в полной комплектации — 8-процессорный. В обе модели может устанавливаться до 128 Гбайт ОЗУ, до двух жестких дисков, обе работают под управлением ОС HP-UX Hi. В них предусмотрено 6 разъемов PCI-X с «горячей» установкой, они имеют высоту 4U.
Серверы оснащаются всеми необходимыми для сервера приложений масштаба предприятия средствами обеспечения высокой готовности; их производительность достаточна для работы таких приложений, как ERP, CRM, электронная коммерция. Благодаря тому, что максимальное число процессоров в сервере rp4410-4 равно четырем, он соответствует требованиям лицензии на Oracle Database Standard Edition, что позволяет уменьшить стоимость ПО СУБД. Обе модели оснащаются контроллерами Ultra320 SCSI и двумя гигабитными Ethernet-адаптерами. Модернизация до Itanium-сервера HP Integrity rx4640-8 выполняется простой заменой процессорных модулей.
Модели среднего уровня. В этой категории HP предлагает 16-процессорную модель HP 9000 гр7420-16 и 32-процессорную гр8420-32. В одной стандартной стойке может быть установлено до четырех серверов HP 9000 rp7420-16 (высота 10IJ) и до двух rp8420-32 (ITU). Обе модели построены на базе ЦП РА-8900 с тактовой частотой 1,0 или 1,1 ГГц и набора микросхем HP Super-Scalable Processor Chipset sxl000. Эти модели могут служить платформами для консолидации серверов, позволяющей снизить общую стоимость владения (ТСО) и значительно уменьшить сложность ИТ-инфраструктуры предприятия. Это достигается благодаря специальному компоненту ОС HP-UX 11i — Virtual Server Environment, включающему подсистемы для создания виртуальных разделов (vPar), жестких разделов (пРаг) и HP Workload Manager (WLM), который позволяет автоматически выделять ресурсы таким образом, чтобы максимально удовлетворить запросы приложений и обеспечить наиболее полное использование аппаратных ресурсов. Как и для остальных моделей серии 9000, модернизация до Itanium-серверов Integrity rx7420-16 и rх8620-32 осуществляется простой заменой процессорных модулей.
Сервер rp8420-32 обеспечивает уровни производительности, масштабируемости и готовности, достаточные для работы таких критически важных для бизнеса приложений, как базы данных и системы ERP (например, SAP) масштаба предприятия.
Суперкомпьютеры HP 9000 Superdome. Эти наиболее мощные до недавнего времени серверы HP зарекомендовали себя как одни из самых производительных UNIX-серверов в отрасли, Последнее поколение IIP 9000 Superdome оснащается 1,1-ГГц процессорами РА-8900, число которых в одной системе может достигать 128, а общий объем оперативной памяти — 1 Гбайт. Они также строятся с применением НМС HP Super-Scalable Processor Chipset sxlOOO и оснащаются средствами виртуализации вычислительных ресурсов. Superdome обеспечивает наиболее высокий в линейке HP 9000 уровень масштабируемости.
HP Integrity
Серверы Integrity строятся на процессорах Intel Itanium 2 и тех же НМС zxl (младшие модели) и sxlOOO (средние и старшие), что и серверы серии 9000. Конструктивно эти серии также унифицированы. Последнее поколение серверов Integrity (кроме двух младших моделей) строится на разработанных HP двухпроцессорных модулях HP mx2 Dual-Processor Module. Кроме основной для этих машин ОС HP-UX 11i v2, на все модели могут устанавливаться Microsoft Windows Server 2003 Enterprise Edition for 64-bit Itanium based systems, Red Hat Enterprise Linux AS 3, SUSE LINUX Enterprise Server 9 и OpenVMS v8.2 (модели среднего уровня и Superdome будут комплектоваться OpenVMS начиная с первой половины 2006 г.). Кроме того, на модели HP Integrity rx7620-16, rx8620-32 и Superdome может устанавливаться Microsoft Windows Server 2003 Data-center Edition for 64-bit Itanium-based systems. Оговорено, что поддержка Linux обеспечивается только в моделях, построенных на одиночных процессорах Itanium 2. На модели с двухпроцессорными модулями mx2 Linux не устанавливается. Все модели оснащаются сервисным программно-аппаратным комплексом IIP Systems Insight Manager.
Модели начального уровня. К начальному уровню HP относит три модели: HP Integrity rx 1620-2, гх2620-2 и гх4640-8. Все они выполнены на наборе микросхем zxl и могут оснащаться ЦП Itanium 2 с тактовыми частотами 1,3, 1,5 и 1,6 ГГц. Модель гх4640-8 может также оснащаться двухпроцессорными модулями тх2, В первые две модели может устанавливаться до двух, а в гх4640-8 — до 8 процессоров, максимальный объем ОЗУ для rх 1620-2 составляет 16, для rх2620-2 32, а для rх4640-8 128 Гбайт. Модели имеют высоту, соответственно, 1U, 2U и 4U, число разъемов PCI-X 2, 4 и 6, количество внутренних жестких дисков 2, 3 и 2.
Модели среднего уровня, К среднему уровню в серии Integrity относятся, как и в серии 9000, 16- и 32-процессорные серверы — rх7620-16 и rх8620-32. Они строятся на процессорах Itanium 2 с тактовой частотой 1,5 (кэш L3 4 Мбайт) и 1,6 ГГц (кэш L3 6 Мбайт) или двухпроцессорных модулях тх2. В качестве НМС используется sxl000. Объем ОЗУ в серверах rх7620-16 может достигать 128, а в rх8620-32 — 256 Гбайт. Высота блоков составляет, соответственно, 10 и 17U.
Как и в соответствующих моделях серии 9000, в состав ОС этих серверов входят средства виртуализации вычислительных ресурсов, позволяющие создавать независимые разделы и динамически перераспределять ресурсы между ними.
Суперкомпьютеры HP Integrity Superdome и NonStop. В этих суперсерверах число процессоров (1,6-ГГц с кэшем 9 Мбайт или 1,5-ГГц с кэшем 6 Мбайт или модули тх2) может достигать 128, а общий объем оперативной памяти — 1 Тбайт. Средства виртуализации обеспечивают создание до 16 независимых разделов, а число разъемов ввода-вывода может доходить до 192.
Для предприятий, где прерывание обслуживания абсолютно недопустимо, компания предлагает масштабируемые серверы Integrity NonStop, готовность которых выражается фантастической цифрой «7 девяток» (99,99999% — это значит, что в течение года допускается не более 5 минут простоя). Число процессоров в этих монстрах может достигать 4 тысяч!
Платформа IBM POWER
История платформы IBM POWER (Performance Optimization With Enhanced RISC) уходит далеко в начало 1970-х гг.; в то время корпорация IBM делала первые серьезные шаги в области проектирования, производства и применения высокопроизводительных микропроцессоров на базе RISC-архитектуры. Она связана с RISC-процессором IBM 801, долгое время использовавшимся в качестве высокоскоростного вспомогательного контроллера в составе крупных информационно-вычислительных систем компании IBM. В начале 1980-х гг. идеи, заложенные в IBM 801, были изучены, переработаны, дополнены и заново воплощены в кремнии в рамках проекта «America», результаты которого фактически и стали началом архитектуры IBM POWER.
Набиравшие в то время особую популярность персонализированные вычисления требовали при построении систем компактных, недорогих, но производительных микропроцессорных решений, и новая архитектура пришлась ко двору IBM как нельзя лучше. Для создания полноценной платформы было решено воспользоваться программными наработками, реализованными ранее при создании рабочих станций в рамках проекта RISC Technology Personal Computer (RT PC), и перенести на новую процессорную архитектуру собственную версию UNIX-подобной ОС AIX (Advanced Interactive Executive).
Надо отметить, что архитектура POWER с момента своего появления — открытый стандарт, к которому при соблюдении определенных условий может присоединиться любой желающий. Начиная с декабря 2004 г. координация усилий разработчиков, участвующих в развитии архитектуры POWER, возложена на консорциум Power.org (www.power.org), в ведении которого также находятся вопросы, связанные с лицензированием элементов архитектуры независимых заинтересованных производителей.
В феврале 1990 г. появился первый микропроцессор новой архитектуры — 32-разрядный POWER1, а вместе с ним и новое семейство высокопроизводительных рабочих станций RS/6000, ныне известных как eServer pSeries. В качестве ОС использовалась новая версия AIX — AIX V3. Особенность процессора POWER1 — блок операций с вещественными числами, хотя и единственный, но способный обрабатывать одну инструкцию за такт, с задержкой не более двух тактов (подробнее об архитектуре процессоров POWER см. в разделе «Процессоры»). Благодаря ему производительность системы RS/6000 на операциях с вещественными числами оказалась очень высокой. Не исключено, что эта особенность сыграла решающую роль в распространении рабочих станций RS/6000 в научном сообществе.
В январе 1992 г. была представлена система RS/6000 7011 модель 220, построенная для уменьшения цены и большей доступности на однокристальной реализации архитектуры POWER — RISC Single Chip (RSC).
Достаточно быстро по меркам тогдашнего времени на смену первому поколению пришла платформа POWER2. В сентябре 1993 г. появились системы RS/6000 7013 моделей 580Н, 590 и 990, построенные на базе этого процессора. Второе поколение архитектуры POWER использовалось практически до октября 1996 г., когда IBM представила систему RS/6000 7013 модель 595, построенную на базе однокристальной реализации архитектуры POWER2 под названием POWER2 Super Chip (P2SC).
Рабочая станция RS/6000 7011 модель 250, появившаяся в сентябре 1993 г., стала первым воплощением нового направления под названием PowerPC (в виде процессора PowerPC 601). Процессор PowerPC 601 на самом деле не полностью соответствовал требованиям новой архитектуры и был скорее переходным звеном от POWER к PowerPC. Последовавшие за ним микропроцессоры 603, 604 и 604е стали действительно 100%-ным PowerPC.
Серия микропроцессоров RS64 была запущена в производство в сентябре 1997 г. и стала для системы RS/6000 и всей архитектуры POWER первым шагом к 64-разрядности. В отличие от поколения POWER2, в значительной степени ориентированного на научные расчеты, новое поколение стало более сбалансированным в плане исполнения бизнес-приложений. С помощью серии RS64 можно было строить SMP-системы, содержащие до 12 процессоров. С появлением этой серии микропроцессоров в платформе IBM POWER произошло еще одно существенное изменение — аппаратная часть (процессоры, подсистема ввода-вывода) серии RS/6000 (переименованной в pSeries в 2000 г.) и системы AS/400 (тогда же переименованной в iSeries) стала единой. Второе поколение серии микропроцессоров RS64 — RS64-II — появилось в сентябре. 1998 г. и характеризовалось повышением частотных характеристик и объема кэш-памяти второго уровня, а также небольшой оптимизацией внутрипроцессорной архитектуры. Значительные изменения произошли с появлением осенью 1999 г. третьего поколения — RS64-III. Дизайн кристалла был модифицирован для производства с применением технологии медных проводников, уровень масштабируемости был увеличен до 24 процессоров в рамках одной SMP-системы, и, наконец, в архитектуру была добавлена технология аппаратной многопоточности, поддержанная со стороны AIX. На тот момент эта технология не была востребована. Ее возвращение в RISC-процессоры IBM произошло только в 2004 году. Осенью 2000 г. появилась последняя, наиболее совершенная версия этого поколения процессоров — RS64-IV.
Поколение POWER3, представленное осенью 1998 г., соединило в себе фундаментальные принципы внутренней микроархитектуры POWER2, как они были реализованы в процессоре P2SC, с архитектурой систем на базе процессоров PowerPC. Процессоры этого поколения хорошо работают с вещественными числами, и при этом они стали первыми реально 64-разрядными с высокими частотными характеристиками и возможностями работы в SMP-конфигурациях.
Появление в 2001 г. архитектуры POWER четвертого поколения — POWER4 — стало для нее переломным моментом, определившим качественный поворот всей дальнейшей судьбы платформы IBM POWER. Благодаря новым технологиям открылась возможность строить решения с многоядерной архитектурой, чем немедленно воспользовались разработчики IBM, интегрировав на одном кристалле два 64-разрядных процессорных ядра. Кроме того, на процессорах этого поколения была отработана технология построения компактных многокристальных модулей МСМ (multi-chip module), объединяющих четыре процессора в единый корпус размером примерно е 5-дюйм дискету. Использование такой высокой интеграции элементов вместе с другими архитектурными решениями позволило получить на старших серверах IBM производительность, в пересчете на один процессор вдвое превышающую производительность конкурирующих систем.
Поколение POWER4+, увидевшее свет в 2002 г., было лишь обновлением технических характеристик POWER4: благодаря новой, более «тонкой» технологии производства увеличились тактовая частота и объем встроенной кэш-памяти второго уровня, а также снизилось энергопотребление процессоров.
Новый значительный шаг вперед был сделан с выходом в 2004 г. поколения POWER5. В нем получила развитие идея интеграции функций, для исполнения которых ранее применялись отдельные наборы микросхем, в частности, в кристалл был встроен контроллер оперативной памяти. Также в нем была реализована параллельная многопоточная архитектура, позволяющая в рамках одного потока команд выполнять целый комплекс задач: предсказание переходов, подготовку команд к исполнению и т. д. Это дало возможность значительно увеличить количество одновременно выполняемых инструкций, причем независимо от тактовой частоты. Согласно результатам открытых тестов, быстродействие систем на POWER5 в полтора-два раза больше, чем систем на POWER4. Использование многопоточности увеличивает производительность процессора POWER5 в среднем на 35% без повышения тактовой частоты. Одновременно с появлением нового поколения архитектуры была выпущена новая версия ОС AIX — AIX 5L V5.3.
AIX 5L V5.3 содержит многие инновационные технологии повышения производительности, надежности и гибкости, позволяя в рамках одной платформы выполнять приложения, работающие под управлением разных ОС. Среди наиболее важных особенностей платформы IBM POWER, реализуемых посредством ОС A1Х 5L V5.3, динамические логические разделы, средства изменения конфигурации по требованию, балансировка нагрузки на серверы при гарантированной безопасности работы приложений, средства повышения отказоустойчивости, возможность одновременного выполнения на одной платформе 32- и 64-разрядных приложений, а также использование инфраструктуры автономных вычислений (autonomic computing).
Для выполнения важных приложений в AIX 5L 5.3 имеется менеджер загрузки Workload Manager (WLM), гарантирующий их работу в соответствии с соглашением об обслуживании независимо от текущей нагрузки на систему. Обеспечивая автоматическое переключение ресурсов между заданиями, администратор транслирует бизнес-требования в политики, в соответствии с которыми происходит автоматическое распределение ресурсов и приоритетов, что особенно важно для обеспечения работоспособности и оптимизации выполнения приложений электронной коммерции, бизнес-разведки и ERP. Кроме этого, для более гибкого масштабирования в AIX 5L 5.3 предусмотрен механизм динамической модернизации сервера путем активизации установленных ранее неактивных ресурсов (процессоров, памяти) по запросу, известный как CUoD (Capacity Upgrade on Demand).
Кроме того, в AIX 5L 5.3 имеются средства DLPAR (Dynamic Logical Partitioning), позволяющие масштабировать серверы pSeries, обеспечивая одновременную, независимую работу на одном компьютере нескольких образов разных ОС. Логические разделы не ограничены рамками возможностей физических устройств, а оперируют блоками ресурсов, из которых можно строить виртуальный сервер с динамически изменяемой по числу процессоров, объему памяти, количеству гнезд ввода-вывода конфигурацией. Отличительной особенностью систем, построенных на POWER5 под управлением AIX 5.3, является уникальная возможность полной виртуализации вычислительной мощности. Независимые разделы могут «потреблять» процессорную мощность с шагом одна десятая процессора. При этом, учитывая динамическое перераспределение мощности и неравномерность загрузки процессоров выполняемыми задачами во времени, единовременное потребление каждой задачей может достигать 100% доступных вычислительных ресурсов. Для пользователя это означает, что консолидация нескольких задач в один сервер с подобным динамическим перераспределением может значительно повысить эффективность работы системы, а количество процессоров, используемых для консолидации, будет значительно меньше, чем необходимое для функционирования каждой задачи на индивидуальном сервере. (Flash Demo по технологиям, используемым в системах IBM eServer p5, можно посмотреть по адресу http://callisto.bstoke.uk.ibm.com/unixsolutions/sales/ cont/p5flashdemos.htm).
Подсистема Virtualization Engine переносит из мэйнфреймов на UNIX-серверы механизм создания разделов, позволяющий выполнять на одном процессоре множество независимых экземпляров ОС. Технология микроразделов (micro-partitioning) повышает до уровня мэйнфреймов загрузку серверных мощностей, которая сегодня для UNIX-серверов составляет лишь 15%. Помимо оптимизации ресурсов серверов, Virtualization Engine поможет упростить процессы управления сложными ИТ-инфраструктурами. Однако в отличие от технологии логических разделов, уже более пяти лет используемой в серверах iSeries, система Virtualization Engine, реализованная в pSeries, имеет ряд новых возможностей: интеграцию механизмов создания микроразделов с программными модулями Tivoli, WebSphere, решения но балансировке рабочей нагрузки, средства управления элементами ИТ-инфраструктуры, позволяющие управлять ресурсами виртуального сервера. Virtualization Engine содержит также новый программный модуль Tivoli Provisioning Manager для автоматизации процессов конфигурирования и представления всех видов ресурсов в ИТ-среде: серверов, ОС, промежуточного ПО, систем хранения и сетевых устройств.
Для построения практически неограниченных по мощности систем используется кластерное ПО, обеспечивающее координацию и синхронизацию между узлами. В AIX 5L системному администратору предоставляется интерфейс к аппарату Cluster Systems Management (CSM), позволяющему из одной точки управлять логическим центром данных, образованным физически распределенным кластером из серверов pSeries и xScries, работающих с ОС AIX или Linux.
Кроме того, совместно с AIX может быть поставлена система НАСМР (High Availability Cluster Multiprocessing), помогающая обеспечить работоспособность приложений в режиме 24x7 (круглосуточно ежедневно) и автоматически определяющая сбойные узлы или нарушения работы сети и организующая восстановление работы оборудования, приложений и пользовательских сессий.
AIX 5L имеет сертификат уровня С2, а также в ней предусмотрена расширенная поддержка многих стандартных протоколов и технологий безопасности: Pluggable Authentication Module (РАМ), PKI, Enterprise Identity Mapping (EIM), BIND V9, SNMP V3, Mobile IPv6, WAP, OpenSSH и ряда других, среди которых следует отметить IBM Network Authentication Server, IBM Directory Server 4.1 и ICSA Certified Ipsec/VPN, технологии безопасности в Java: JAAS, JCE/JCE, JSSE, JGSS и J-PKI.
Несомненно, будущее платформы IBM POWER связано с развитием процессорной архитектуры POWER и дальнейшим совершенствованием двух операционных систем — AIX 5L и i5/OS, однако, согласно давнишней традиции, корпорация IBM не раскрывает своих планов относительно грядущих разработок до момента их официального объявления. Можно только сказать, что следующее поколение POWER6 и соответствующая ОС AIX 5L V5.4 должны появиться ориентировочно в 2006 г.
Мэйнфреймы IBM zSeries
В истории компьютерной индустрии существует несколько моментов, определивших направление дальнейшего развития электронно-вычислительных машин. К ним, без сомнения, относится проект по созданию новой архитектуры ЭВМ — мэйнфреймов, реализованный IBM в первой половине 1960-х гг. Существовавший в то время подход к проектированию и производству компьютеров в определенной степени можно сравнить с производством автомобилей до изобретения Генри Фордом конвейерного метода сборки. Каждая новая ЭВМ представляла собой уникальный продукт, созданный командой инженеров, причем ЭВМ не всегда даже была универсальной, ибо зачастую создавалась для решения какой-нибудь единственной задачи. Естественно, такое положение не могло удовлетворить компанию, поскольку с каждой новой реализацией множилось количество нестандартных узлов и блоков, несовместимых между собой, а накопленный бесценный опыт раз за разом терялся впустую. В самом начале 1960-х гг. руководство корпорации приняло решение о запуске кардинально нового проекта, нацеленного на создание стандартизованной, хорошо масштабируемой, высоконадежной архитектуры ЭВМ универсального назначения.
4 апреля 1964 г. проект принес первые плоды — появилось семейство вычислительных машин IBM System/360, ставшее эпохальным в истории развития высокопроизводительных серверов. Первоначально в серию входили модели 20, 30, 40, 50, 60, 62, 70 и 92. Модель 20 была ориентирована на нижний сегмент рынка. Следующие три представляли собой системы среднего уровня и должны были заменить мини-ЭВМ серии IBM 1400. Последние четыре предназначались на замену серии «тяжелых» ЭВМ IBM 7000. В 1965 году семейство пополнилось системами среднего уровня — моделями 57, 65 и 75, «научной» моделью 44, дополненной аппаратным блоком для работы с вещественными числами, и high-end моделью 67, в которой впервые была реализована система динамической трансляции адресов, позволившая повысить эффективность работы с памятью и быстродействие системы, а также зачатки системы виртуализации ресурсов ЭВМ. В 1966 г. была представлена еще одна система высшей категории — модель 91. В 1968 г. пополнение произошло в начальном секторе — модель 25 — и в секторе систем высшего уровня — модель 85. В 1969 г. появилась еще одна high-end машина — модель 195, наконец, в 1971 г. последняя система, модель 22, из категории «легких» машин.
В качестве операционной системы в машинах серии System/360 использовалась специально разработанная система OS/360 (Operating System/360). Модели нижнего уровня работали с использованием одной из ее разновидностей — Basic Operating System/360 (BOS/ 360), Card Operating System (COS/360), Tape Operating System (TOS/360) или Disk Operating System/360 (DOS/360). Старшие модели использовали систему OS/360 MVT (Multiprogramming with a Variable number of Tasks), обеспечивавшую исполнение нескольких приложений одновременно в режиме многозадачности с динамическим перераспределением памяти.
Большие универсальные ЭВМ серии System/360 стали первыми в мире системами, которые были предназначены как для коммерческих, так и для научных расчетов. Несколько блоков выполнения команд, а также встроенные специализированные процессоры, функции операционной системы, связующее программное обеспечение и микропрограммный код обеспечивали высокую масштабируемость этих многопользовательских вычислительных систем и их взаимную совместимость.
Именно в рамках проекта по созданию System/360 были впервые применены многие концептуальные решения, ставшие впоследствии непререкаемым стандартом. Это прежде всего 8-бит байт вместо использовавшихся ранее 4- и б-бит, 32-разрядная архитектура вычислительной системы, побайтная адресация памяти, сегментация и алгоритм страничной адресации памяти, а также многие другие идеи,
В начале 1970-х гг. IBM выпустила на рынок модельный ряд высокопроизводительных серверов второго поколения, получивший название System/370. Системы System/370 были обратно совместимы с выпускавшимися ранее системами System/360, но использовали усовершенствованные процессоры, оперативную и внешнюю память, что позволило расширить их возможности по поддержке одновременно работающих пользователей и более ресурсоемких и динамических приложений. Основными новациями System/370 можно считать возможность использования нескольких процессоров в рамках одной системы, полноценную поддержку виртуальной памяти и новый 128-разрядный блок вещественной арифметики.
Первые машины серии System/370 (модели 145, 155, 165 и 195) появились в 1970 г. и были нацелены на средний и высший уровень сложности решаемых задач. Годом позже была представлена система начального уровня — модель 135. В 1972 г. к семейству добавились модели 125, 158 и 168: первая относилась к категории «легких», вторая и третья — к «средним» системам. Тогда же в мэйнфреймах появилась полноценная программно-аппаратная система виртуализации ресурсов ЭВМ. В 1973 г. появилась самая младшая в серии система — модель 115. Через два года она получила развитие в виде двухпроцессорной модификации 115-2. В этом же 1975 г. была представлена двухпроцессорная модель 125-2. 1976 г. ознаменовался целым рядом новых систем, причем большая их часть — трехпроцессорные модели 135-3, 145-3, 158-3 и 168-3, и всего две (138 и 148) использовали один процессор.
В дальнейшем (на протяжении 1980-х гг.) выпускался целый ряд машин, совместимых с оригинальной системой System/370. Первоначально они базировались на расширении стандартной архитектуры, System/370 Extended Architecture (370-ХА), предполагавшим переход от 24- к 31-бит адресации памяти, а позже на ее дальнейшем развитии — Enterprise Systems Architecture/370 (ESA/370), полностью реализовавшем преимущества новых механизмов работы с памятью.
ОС семейства System/370 (OS/370) корнями уходит в предыдущее поколение — OS/360 — и развивалась на базе одного из ее ответвлений под названием Multiple Virtual Storage (MVS). Эволюция системы MVS повторяла развитие аппаратных средств, что нашло отражение в названии этой системы в разные периоды времени: MVS/System Product(MVS/SP), MVS/Extended Architecture (MVS/XA) и MVS/Enterprise Systems Architecture (MVS/ESA).
Новое поколение мэйнфреймов, семейство System/ 390, появилось в начале 1990-х гг., но сохранило совместимость с предыдущими поколениями. В процессе создания System/390 произошло обновление всей элементной базы мэйнфреймов — микропроцессоров, оперативной и внешней памяти на несколько поколений. В период с 1990 по 1999 г. было выпущено множество разнообразных систем, известных под общим названием IBM S/390 Enterprise Server.
В 2000 г. название System/390 было заменено на IBM eServer zSeries, и в октябре была представлена первая модель этого семейства — система масштаба предприятия zSeries 900. На тот период это была самая мощная ЭВМ массового коммерческого применения из когда-либо созданных прежде. Тогда же появилась новая 64-разрядная операционная система z/OS, вобравшая в себя наработки предыдущих поколений, начиная с OS/360. В 2002 г. было представлено семейство zSeries 800, нацеленное на задачи среднего уровня. Новая версия 1.4 операционной системы z/OS, главной ОС для мэйнфреймов zSeries, оказалась на 60% быстрее предшествующих. 2003 г. был отмечен появлением нового лидера в семействе zSeries — eServer zSeries 990. Наконец, в 2004 г. обновление пришло в сегмент систем среднего уровня — в апреле появился сервер zSeries 890.
В середине 2005 года семейство мэйнфреймов пережило очередное переименование — отныне все системы этого класса будут обозначаться System z9. Одновременно с этим было объявлено о выходе новой системы — модели 109.
С аппаратной точки зрения zSeries отличается высокоинтегрированной упаковкой компонентов при снижении возможности отказа любого из них. В системе zSeries также реализовано уникальное сочетание функций обеспечения готовности, подобных коду коррекции ошибок (Error Correction Code, ECC) на всех уровнях памяти, а также возможности автоматической разгрузки сбойных процессоров и памяти при одновременном переключении на резервные компоненты без участия оператора и без нарушения обслуживания пользователей. Возможность непрерывного профилактического обслуживания также вносит весомый вклад в то, что среднее время наработки на отказ (MTBF) систем zSeries исчисляется десятилетиями.
Жесткие требования по доступности и надежности корпоративных систем обработки данных диктуют использование многомашинных комплексов, кластеров, применение различных схем дублирования, горячего резервирования критичных серверов. Для этого IBM предлагает использовать принципиально новую архитектуру комплексирования — Parallel Sysplex. Работа серверов в режиме Parallel Sysplex характеризуется повышенной живучестью комплекса: его надежность сейчас 99,999%, что позволяет обслуживать пользователей 24 часа в сутки 365 дней в году. При отказе или даже физическом уничтожении одного или нескольких серверов возможен некоторый спад производительности, но все приложения будут нормально функционировать, целостность данных не нарушится, пользователи будут продолжать работу. Плановые профилактические работы с оборудованием или программным обеспечением, подключение новых серверов в комплекс также происходят без прерывания работы комплекса.
Применение Parallel Sysplex обеспечивает высокую пропускную способность комплекса. Благодаря динамической балансировке нагрузки все компьютеры в Parallel Sysplex и все процессоры в каждом из серверов загружены равномерно. Такое эффективное использование имеющихся ресурсов обеспечивает улучшенные показатели времени ответа для прикладных подсистем и уменьшает общую потребность в ресурсах.
Использование Parallel Sysplex обеспечит эволюционное развитие вычислительной системы. По мере роста числа пользователей системы и количества приложений можно практически безгранично наращивать мощность комплекса как путем добавления новых процессоров в существующие серверы, так и добавлением новых серверов в комплекс без прерывания технологического цикла.
Катастрофоустойчивое решение Geographically Dispersed Parallel Sysplex (GDPS) дополняет Parallel Sysplex, предоставляя комплексное автоматизированное решение для динамического управления зеркалированием подсистемы дисковой памяти, процессорами и сетевыми ресурсами в территориально разнесенных (GDPS/PPRC — до 40 км, GDPS/XRC — практически неограниченно) вычислительных комплексах. Это обеспечивает предприятию постоянную готовность и практически прозрачное восстановление после катастроф без потери данных. GDPS позволяет контролируемо переключать системы при плановых и внеплановых перерывах в работе и сохранять целостность данных на множестве подсистем памяти.
Благодаря высокоразвитому интегрированному набору инструментов управления системными ресурсами серверы семейства zSeries обладают способностью автоматически и непрерывно перераспределять их в соответствии с потребностями пользователей и приоритетами бизнеса. Уровни обслуживания конечных пользователей могут определяться в терминах приемлемого времени реакции системы на их запросы, относительных приоритетов пользователей, значений времени завершения работы или времени выполнения для пакетных заданий и других параметров, определяющих то, как система должна отвечать на запросы пользователей извне. После определения целей и задач реакции системы zSeries на запросы извне вмешательство оператора больше не требуется — система автоматически и непрерывно перераспределяет системные ресурсы в соответствии с деловыми потребностями сотен или тысяч пользователей, групп или приложений, поддерживая в реальной рабочей среде уровень загрузки, близкий к 100%.
В периоды пониженной активности пользователей zSeries может запускать задания с меньшим приоритетом, чтобы поддерживать уровень загрузки близким к 100% без вмешательства оператора. Система автоматически реагирует на непрерывно изменяющиеся потребности пользователей и бизнеса, отраженные в бизнес-приоритетах.
По мере того как конфиденциальность становится одним из главнейших требований бизнеса, поддержка SSL-транзакций превращается в определяющий фактор при выборе сервера. IBM zSeries может работать с восемнадцатью выделенными криптографическими сопроцессорами, которые могут обрабатывать несколько тысяч защищенных транзакций в секунду без снижения скорости обработки приложений.
Несмотря на всевозможные пророчества, предрекавшие неминуемую и скорую смерть этой платформе, в прошлом году она успешно отметила 40-летие, при этом, по оценкам ведущих аналитических агентств мира, до 70% критически важной корпоративной информации хранится и обрабатывается именно с помощью мэйнфреймов.
Платформа Sun SPARC
История платформы Sun SPARC начинается с начала 1980-х гг., когда компания Sun Microsystems вплотную приблизилась к пределу производительности своих рабочих станций на базе процессоров Motorola. Новая процессорная архитектура SPARC (Scalable Processor Architecture), по замыслам руководства компании, должна была помочь преодолеть недостатки существующих на рынке решений, обеспечить Sun независимость от их поставщиков и помочь выбиться в технологические лидеры. Основные идеи SPARC разрабатывались в Калифорнийском университете (Беркли), где в 1980—1982 гг. создавались системы с сокращенным набором команд (RISC). Ключевые работы по созданию SPARC-архитектуры были выполнены в период между 1984 и 1987 гг. коллективом инженеров Sun Microsystems. Б разработанное ранее решение они внесли ряд улучшений, основным из которых была поддержка SMP-многопроцессорности. Важно отметить, что практически с самого начала руководством Sun было принято решение сделать SPARC-архитектуру открытым стандартом. Для этого в 1989 г. была организована независимая компания SPARC International (www.sparc.org), на которую возложили обязанности по лицензированию архитектуры всем заинтересованным. При этом была определена достаточно либеральная ценовая политика — лицензию можно было приобрести за сумму, эквивалентную 100 долларам США.
В начале 1986 г. была опубликована спецификация первого поколения архитектуры — SPARC Version 7. Первые 32-разрядные микропроцессоры с частотой 16,67 МГц на ее базе в апреле 1986 г. для Sun изготовила компания Fujitsu. С их помощью было построено семейство рабочих станций Sun-4/260. Спустя два месяца стараниями программистов компании появилась стабильная версия операционной системы SunOS для новой платформы. Первая ОС платформы SPARC была основана на дистрибутиве BSD UNIX, дополненном сетевым ПО и графическим оконным интерфейсом, а впоследствии сетевой файловой системой NFS. Для максимальной концентрации усилий по развитию ОС и необходимого ПО в 1991 г. в Sun было сформировано подразделение SunSoft. Кроме непосредственно разработки, в его функции также входило обеспечение лицензиями на ПО дистрибьюторов, OEM-партнеров и конечных пользователей.
8 июля 1987 г. — официальное рождение новой RISC/UNIX платформы: Sun представила компьютерному сообществу одновременно и открытую архитектуру SPARC, и первую базирующуюся на ней систему Sun-4/260, и ОС, и обширный набор прикладного ПО.
Рабочая станция SPARCstation 1, появившаяся в 1989 г., стала первой действительно массовой системой на базе новой архитектуры и яркой демонстрацией ее возможностей. В этом же году было объявлено о представлении второго, более совершенного поколения архитектуры SPARC — SPARC Version 8.
В 1991 г. появился первый сервер Sun — SPARC-server 600MP. Несмотря на то что он был построен на процессоре с архитектурой SPARC Version 7, его объявление стало важным событием — платформа SPARC перешла в разряд серверных. Тогда же появился первый портативный компьютер на базе SPARC — SPARC LT. 1991 г. стал переломным и в сфере ПО — SunOS 4.1.4 уже не удовлетворяла Sun в качестве решения для многопроцессорных систем. В сентябре было объявлено о выходе новой ОС на основе AT&T System V, самой важной особенностью которой стало заново переписанное ядро, включившее в себя расширенную поддержку многопоточности на уровне всех системных и прикладных процессов. Продукт получил название Solaris 2. Несмотря на новое имя, ОС Solaris все же выросла из SunOS — даже сегодня в системных сообщениях можно видеть обозначение SunOS 5.x, где X обозначает текущую версию Solaris. Для большинства приложений ОС Solaris обеспечивает практически линейный рост производительности при увеличении числа процессоров в системе, воплощая концепцию SMP-вычислений. Благодаря прекрасной масштабируемости одна и та же ОС используется и на однопроцессорных рабочих станциях, и на серверах масштаба рабочей группы и предприятия.
В 1992 г. появился первый процессор на базе архитектуры SPARC Version 8 — SuperSPARC I. Суперскалярный процессор интегрировал в себя все основные исполнительные блоки, вне кристалла оставался лишь контроллер кэш-памяти L2 и сам кэш. Подобное решение позволило значительно повысить производительность конечных систем. В мае 1992 г. была выпущена рабочая станция SPARCstation 10, объединившая в одной системе два процессора SuperSPARC и шину MBus.
Годом позже было объявлено о завершении разработки третьего поколения архитектуры SPARC — SPARC Version 9. Ее главной отличительной особенностью стал переход к 64-разрядным вычислениям. Кроме того, произошел переход от шинной архитектуры взаимодействия системных компонентов к коммутируемой. С момента появления и до настоящего времени Version 9 остается базой для проектирования аппаратной и программной составляющих SPARC-платформы. В феврале 1995 г. идеи, заложенные в SPARC Version 9, обрели физическое воплощение — появился процессор UltraSPARC I.
В ноябре этого же года был представлен восьмипроцессорный сервер SPARCserver 1000, а в декабре 20-процессорный SPARCcenter 2000. Оба на процессорах SuperSPARC и шине с коммутацией пакетов XDBus. Это были первые по-настоящему большие системы, созданные в рамках платформы SPARC, появление которых обозначило зрелость платформы, ее готовность к построению сложных высокопроизводительных SMP-систем для массового применения.
1996 г. оказался очень важным для будущего SPARC-платформы — компания Sun Microsystems приобрела исследовательское подразделение Cray Research, входившее ранее в состав крупнейшего производителя суперкомпьютеров Cray. Это шаг открыл Sun доступ к наработкам в области сверхсложных больших вычислительных систем и позволил ей значительно повысить масштабируемость своих решений.
Благодаря новым идеям, в 1997 г. был выпущен 64-процессорный сервер масштаба предприятия — Sun Enterprise 10000 на процессорах UltraSPARC II, появившихся в том же году несколько ранее и базирующихся на архитектуре SPARC Version 9. Характерную для предыдущих моделей шинную организацию взаимодействия узлов внутри системы в Sun Enterprise 10000 заменила архитектура UltraSPARC Port Architecture (UPA) на базе специализированного высокоскоростного внутрисистемного коммутатора. Не будет преувеличением сказать, что на тот момент эта система оказалась уникальной, не имеющей близких аналогов. Конкурирующие решения не вышли за пределы двух десятков процессоров в одной системе. Кроме того, сервер Sun Enterprise 10000 стал первой SPARC-системой, в которой были реализованы принцип динамического разбиения на домены и идеи динамического реконфигурирования. Каждый домен содержал накопитель с независимой копией ОС Solaris, некоторое количество процессоров, сетевых интерфейсов и интерфейсов ввода-вывода, при этом процессоры и I/О-интерфейсы могли перераспределяться между несколькими доменами динамически в зависимости от решаемых задач и текущего уровня нагрузки.
Новое поколение ОС Solaris — Solaris 7 — появилось в 1998 г. Несмотря на вторичность причин, вызвавших появление цифры 7 в названии, внесенные в ОС изменения носили достаточно серьезный характер: в соответствии с требованиями SPARC Version 9 она была переработана под 64-разрядную аппаратную базу, что наилучшим образом сказалось на производительности, расширяемости и масштабируемости платформы SPARC.
2001 г. памятен появлением процессора UltraSPARC III с интегрированным в кристалл контроллером памяти, выпуском на его основе нового модельного ряда серверов под названием Sun Fire, ориентированного на средний уровень задач и соответствующую ценовую категорию, и переходом к новой технологии общения внутрисистемных компонентов Fireplane. Система Sun Fire 280R стала первой SPARC-системой среднего уровня, в которой применялись технологии динамического ре-конфигурирования и разбиения на домены. Кроме того, в серии Sun Fire был реализован модульный подход к построению систем, позволивший создавать отказоустойчивые, легко расширяемые и модернизируемые серверы, которые не требовали прекращения работы в процессе любых манипуляций с ними. Тогда же появилась ОС под названием Solaris 8, в которой был существенно переработан механизм организации многопоточности внутри ядра.
Богатым на события для SPARC-платформы оказался 2003 г. — в апреле были запущены в производство процессоры UltraSPARC IIIi — упрощенный вариант UltraSPARC III, предназначенный для построения недорогих от однопроцессорных до четырехпроцессорных систем, оптимизированных по соотношению цена/производительность. В июле свет увидела новая версия UltraSPARC III, работающая на повышенных тактовых частотах. А в октябре был представлен новый процессор, получивший название UltraSPARC IV. С архитектурной точки зрения ничего нового в нем не было: просто он объединил два ядра UltraSPARC III в одном процессорном корпусе. Однако с точки зрения повышения производительности и особенно перспектив дальнейшего развития платформы SPARC это был очень серьезный шаг к реализации аппаратной многопоточности. Наконец, в этом же году была представлена 9-я версия ОС Solaris, в которой еще раз был переработан способ организации могопоточности, и в качестве окончательного варианта был выбран способ «один к одному», когда каждому пользовательскому потоку соответствует поток внутри ядра.
Настоящее SPARC-платформы связано с тремя компаниями: Sun Microsystems, Fujitsu и Texas Instruments. Первые две занимаются разработкой и совершенствованием архитектуры SPARC и в 2004 г. для повышения эффективности этого процесса и координации действий образовали альянс. Последняя изготавливает процессоры для Sun на своих производственных мощностях.
15 ноября 2004 г. Sun анонсировала, а в начале 2005 г. представила радикально обновленную ОС Solaris 10. Это событие сопровождалось объявлением об открытии исходных кодов ОС и запуском масштабного open-source-проекта по ее дальнейшей разработке.
Радикальные изменения коснулись как технической части, так и самой бизнес-модели, в том числе поставки и лицензирования ПО, способов его обновления и условий технического сопровождения. Начиная с 10-й версии, Sun Microsystems перешла к более открытой, простой и наглядной лицензионной политике. Любой заинтересованный потребитель теперь может свободно загрузить образы дисков с ОС, причем как для архитектуры х8б, так и для SPARC, и устанавливать ОС на любое количество серверов любой конфигурации. При этом ему будут доступны все обновления, связанные с безопасностью. Если же у пользователя возникнет потребность в технической поддержке, он может подписаться на одну из платных программ.
В пул наиболее интересных и значимых технологий Solaris 10 вошла система виртуализации Solaris Containers, система диагностики и контроля DTrace и файловая система ZFS.
Встроенная система виртуализации Solaris Containers (ранее известная как N1 Grid Containers) позволяет системному администратору организовать в рамках единой инсталляции ОС несколько виртуальных системных разделов, называемых зонами. При этом внутри каждой зоны существует персонализированное пространство имен и процессов — она выступает в роли самостоятельной, изолированной от других зон, системы с собственными пользователями, каталогами и сетевыми адресами. Процессы и пользователи, в том числе суперпользователь root, работающие в пределах одной зоны, не имеют доступа к ресурсам и данным прочих, так что даже в случае нарушения режима безопасности и несанкционированного проникновения в какую-либо из них злоумышленник не получит доступа ко всей системе. Каждой такой зоне может быть назначен контейнер — набор локализованных системных ресурсов. Технология контейнеров предназначена дли распределения ресурсов между отдельными процессами, группами процессов и пользователями, однако в сочетании с зонным делением она позволяет оптимально настроить всю систему, выделив каждой области-зоне ровно столько ресурсов, сколько ей необходимо для обеспечения заданной функциональности. Такое сочетание дает администратору возможность создавать множество виртуальных серверов и манипулировать ими по собственному разумению, не опасаясь, что они будут как-либо влиять друг на друга. Технология весьма экономична с точки зрения системных ресурсов — на каждый контейнер требуется менее 1 % накладных расходов. Обслуживание даже нескольких сотен виртуальных серверов не слишком увеличивает нагрузку на администратора — все контейнеры работают в рамках одной копии Solaris 10 и могут наследовать все установленные пакеты, исправления и глобальные настройки.
Инструмент DTrace (Dynamic Tracing) с помощью специальных информационных датчиков, число которых может достигать нескольких тысяч, автоматически диагностирует в реальном времени «узкие места», влияющие на производительность приложений и работу системы в целом. Он призван заменить стандартный для UNIX-систем подход к диагностике и администрированию, связанный с использованием набора вспомогательных утилит и файлов с протоколами системных операций, предлагая системному администратору автоматизацию значительной части функций и их консолидацию в рамках единого управляющего интерфейса.
Новая файловая система Solaris ZFS (zettabyte file system) обеспечивает 128-бит адресацию памяти, гарантируя отсутствие проблем при работе с большими объемами данных даже в отдаленном будущем. Кроме того, в нее встроена система защиты от физических повреждений, основанная на CRC-методе коррекции ошибок. Наконец, Solaris ZFS позволяет осуществлять любые манипуляции с разделами на лету: администратор может создавать и удалять разделы, разделять и группировать существующие, перераспределять пространство из одного раздела в другой, причем без прекращения работы системы и без перезагрузок.
Технология автоматического контроля за состоянием серверной системы (Predictive Self Healing) позволяет ОС самостоятельно диагностировать, изолировать и устранять практически любые программные и аппаратные сбои. Компонент Solaris Fault Manager — составная часть технологии Predictive Self Healing — осуществляет мониторинг аппаратных и программных частей системы, заранее выявляя потенциально сбойные участки и выводя их из рабочей среды. Непосредственное участие администратора сведено к минимуму и относится в основном к случаям неустранимых сбоев, требующих немедленного вмешательства.
Стоит особо отметить, что для платформ SPARC и х86 дистрибутив Solaris 10 собирается из одной и той же ветки разработки, так что обе версии абсолютно идентичны, разумеется, за исключением частей, связанных с аппаратными особенностями платформ. Это позволяет заказчикам приобщиться к миру UNIX, не затрачивая каких-либо значительных средств на приобретение необходимого оборудования, но дает возможность безболезненно масштабировать информационную систему на высокоуровневые и более производительные решения при достижении платформой х86 пределов производительности и расширяемости.
Фактически индустрия получила в виде Solaris 10 уникальную возможность консолидировать ИТ-инфраструктуру заказчиков без ее коренной переработки.
Отличительная черта платформы SPARC — ее преемственность: даже сегодня, несмотря на все прошедшие за время ее существования смены поколений, заказчики могут без проблем работать с ПО, написанным 10 и более лет назад, при этом речь идет о прямом исполнении программного кода без каких-либо его изменений и перекомпиляции. Более того, преемственность распространяется не только на программную часть, но в определенной мере и на аппаратную — появление нового поколения процессоров не приводит к смене всей системы целиком, достаточно заменить интегрированные платы Uniboard, содержащие процессор и ОЗУ.
Список литературы
Журнал Upgrade4_08_05