Hardware - разное

         

Адаптерные проблемы


Как и мониторы, новые графические платы сейчас дешевле и вместе с тем мощнее, чем когда-либо ранее. Однако это еще не означает, что вам обязательно нужно модернизировать видеосистему. Если вы на своем ПК в основном набираете документы в текстовом процессоре, выполняете расчеты в электронных таблицах и путешествуете по Web, вам вполне хватит возможностей уже имеющейся платы.

Однако если вы часто работаете с насыщенными 3D-графикой приложениями, например, с анимационными программами, или не прочь время от времени запустить модную компьютерную игру, вам потребуется видеоадаптер с одной из последних микросхем обработки трехмерной графики. Если в вашем ПК нет специального разъема AGP, то нужно приобрести одну из графических плат для шины PCI, скажем, Creative Labs 3D Blaster Banshee. Эта модель имеет превосходное 3D-быстродействие и стоит всего 80 долл.

А, в вашем компьютере разъем AGP все-таки есть? Тогда на уровень систем от известных поставщиков его поднимет новый видеоадаптер с мощным процессором и объемным ОЗУ. Так, благодаря новому графическому процессору и 32-Мбайт ОЗУ плата Matrox Millennium G400 без труда справляется с самыми современными играми. А если вы работаете в среде Windows 98 и имеете два монитора, то с помощью этого видеоадаптера сможете использовать их оба.

В самых современных играх 32-Мбайт ОЗУ платы Millennium G400 придется как нельзя кстати, однако для деловых приложений, большинства игр и даже мощных программ редактирования графики прекрасно подойдут и платы с 16-Мбайт видеоОЗУ. При выборе обращайте особое внимание на частоту цифроаналогового преобразователя (RAMDAC) - микросхемы, конвертирующей для монитора графику в аналоговые сигналы красного, зеленого и синего. Чем выше частота RAMDAC, тем более "гладко" должно выводиться изображение (упомянем еще раз, что заметят это в основном лишь заядлые игроки). Если вы хотите купить плату достаточно высокого качества, то выбирайте модель, у которой частота RAMDAC составляет не менее 250 МГц.

Одно предупреждение: у вас могут возникнуть проблемы при установке ныне выпускающихся видеоадаптеров в ПК с ранними версиями разъемов PCI и AGP. Ваш компьютер должен быть совместим со стандартом PCI 2.0/2.1 или, соответственно, удовлетворять спецификации 2X AGP. Как это определить? Помочь может (а иногда и не может) документация на ПК или Web-узел производителя ПК. Системы с шиной PCI, выпущенные четыре-пять лет назад, скорее всего, поддерживают стандарт PCI 1.0, а ПК с шиной AGP возрастом более двух лет - стандарт AGP 1X. Самые современные AGP-платы будут работать и в разъемах AGP 1X, но максимальной производительности от них вы тогда не получите.



Архитектура Audio Ring


Все блоки внутри X-Fi соединены особым методом, который реализует упомянутую архитектуру Audio Ring. Формально они объединены в общее кольцо - это очень гибкая топология, где каждый структурный элемент может взять данные из кольца, обработать их и поместить обратно в кольцо. Фактически маршруты сигналов внутри X-Fi могут быть любыми - из любой точки в любую точку.

Audio Ring представляет собой конвейерную мультиплексную шину с временным разделением, поддерживающую 4096 аудиоканалов. Под этим подразумеваются не только "внешние" каналы, а абсолютно все, включая внутренние для реверберации, динамического процессинга, эффект-процессинга и т. д.

Как любой продуманный процессор, X-Fi нуждается в быстрой и своевременной доставке данных. Для того чтобы избежать простоев, потребовалось, как в старые добрые времена, снабдить звуковую карту собственной памятью в размере от 2 до 64 Мбайт (ценовое разделение аудиокарт будет производиться и с учетом памяти). Вся ситуация говорит о приближении, в качественном понимании, звуковых карт к видеоадаптерам.

Вообще, вся кардинальная переработка звукового чипсета наводит на мысли, что X-Fi уготована долгая жизнь как в существующем представлении, так и на основе различных вариаций на эту тему - это, например, увеличение числа каналов Audio Ring, объема памяти и всего прочего, известного в мире видеоадаптеров.



Архитектура и физическая конфигурация


Два типа элементов составляют систему: узлы и роутеры. Выше мы познакомились с отдельным узлом. Узел - это машина, из которой ``торчит'' HSL. Этот HSL входит в один из портов роутера. Функцией роутера является коммутация пакетов информации между узлами. В роутере восемь портов, каждый из которых может замыкаться либо на узел, либо на другой роутер. Таким образом строится физическая конфигурация машины, которая задается количеством роутеров, количеством узлов, и топологией связей между узлами и роутерами. В системе Parsytec CC/16 имеется 16 узлов и 4 роутера.



Архитектура матричного коммутатора




Архитектура коммутатора реализована с помощью аппаратной сети, которая осуществляет индивидуальные соединения типа точка-точка: процессора с процессором, процессора с основной памятью и процессора с магистралью данных ввода/вывода. Эта сеть работает совместно с разделяемой адресной шиной. Такой сбалансированный подход позволяет использовать лучшие свойства каждого из этих методов организации соединений.

Разделяемая адресная шина упрощает реализацию наблюдения (snooping)за адресами, что необходимо для аппаратной поддержки когерентности памяти. Адресные транзакции конвейеризованы, выполняются асинхронно . расщеплено по отношению к пересылкам данных и требуют относительно небольшой полосы пропускания, гарантируя, что этот ресурс никогда не войдет в состояние насыщения.

Организация пересылок данных требует больше внимания, поскольку уровень трафика и время занятости ресурсов физического межсоединения здесь существенно выше, чем это требуется для пересылки адресной информации. Операция пересылки адреса представляет собой одиночную пересылку, в то время как операция пересылки данных должна удовлетворять требованию многобайтной пересылки в соответствии с размером строки кэша. При реализации отдельных магистралей данных появляется ряд дополнительных возможностей, которые обеспечивают:

максимальную скорость передачи данных посредством соединений точка-точка на более высоких тактовых частотах; параллельную пересылку данных посредством организации выделенного пути для каждого соединения; разделение адресных транзакций и транзакций данных.

Поэтому архитектуру PowerScale можно назвать многопоточной аппаратной архитектурой (multi-threaded hardware architecture) с возможностями параллельных операций. На рис. 3 показаны основные режимы и операции, выполняемые матричным коммутатором.

Рисунок 3.
Матричный коммутатор.

Режим обращения к памяти . Memory mode: (a). Процессорный узел или узел в/в коммутируется с массивом памяти (MA). Такое соединение используется для организации операций чтения памяти или записи в память.


Режим вмешательства (чтение): (b). Читающий узел коммутируется с другим, вмешивающимся узлом и шиной данных MA. Этот режим используется когда при выполнении операции чтения строки от механизма наблюдения за когерентным состоянием памяти поступает ответ, что данная строка находится в кэш-памяти другого узла и модифицирована. В этом случае данные, извлекаемые из строки кэша владельца, подаются читающему узлу и одновременно записываются в MA. Если читающий и вмешивающийся ЦП находятся внутри одного и того же узла, то данные заворачиваются назад на уровне узла и одновременно записываются в память.

Режим вмешательства (чтение с намерением модификации . RWITM):(c). Процессорный узел или узел в/в (читающий узел) коммутируется с другим процессорным узлом или узлом в/в. Этот режим используется тогда, когда при выполнении операции RWITM от механизма наблюдения поступает ответ, что данная строка находится в кэш-памяти другого узла и модифицирована. В этом случае данные, извлекаемые из строки кэша владельца, подаются только читающему узлу и не записываются в память.

Режим программируемого ввода/вывода (PIO): (d). Процессорный узел коммутируется с узлом в/в. Это случай операций PIO, при котором обмен данными происходит только между процессором и узлом в/в.

Режим в/в с отображением в памяти (memory mapped). Главный узел коммутируется с узлами в/в (подчиненными узлами), вовлеченными в транзакцию. Это случай операций с памятью.


Архитектура PowerScale


Виктор Шнитман

Институт системного программирования РАН vzs@ivann.delta.msk.suПроблемы реализации SMP-архитектуры
Архитектура PowerScale
Балансировка нагрузки
Модель памяти
Архитектура матричного коммутатора
Параметры производительности
Когерентность кэш-памяти
Протокол MESI и функция вмешательства
Физическая реализация архитектуры
Семейство UNIX-серверов Escala
Заключение

Группа компаний Bull является сегодня одним из крупнейших производителей информационных систем на мировом компьютерном рынке. В связи с происходившей в последнем пятилетии перестройкой структуры компьютерного рынка группа объявила о своей приверженности идеологии открытых систем. Сегодня Bull выпускает компьютеры класса мэйнфрейм . DPS9000, среднего класса . DPS7000и DPS6000, работающие под управлением операционной системы GCOS8, UNIX-системы DPX/20 и Escala, а также серию персональных компьютеров ZDS. В результате технологического соглашения с компанией IBM, в 1992 году Bull анонсировала ряд компьютеров DPX/20, базирующихся на архитектуре POWER, а позднее в1993 году . на архитектуре PowerPC, работающих под управлением операционной системы AIX. Версия ОС AIX 4.1, разработанная совместно специалистами IBM и Bull, поддерживает симметричную многопроцессорную обработку. Архитектура PowerScale представляет собой первую реализацию симметричной мультипроцессорной архитектуры, разработанной Bull специально для процессоров PowerPC, применяемых в компьютерах Escala. Вначале она была реализована на процессоре PowerPC601, но легко модернизируется и для других моделей этих чипов.

Основа архитектуры PowerPC . многокристальная архитектура POWER, которая была сначала разработана в расчете на однопроцессорную реализацию процессора. При разработке PowerPC для удовлетворения потребностей компаний Apple, IBM и Motorola в архитектуре POWER было сделано несколько изменений в следующих направлениях:

упрощение архитектуры с целью ее приспособления для дешевых однокристальных процессоров; устранение команд, которые могут стать препятствием повышения тактовой частоты; устранение архитектурных препятствий суперскалярной обработке и внеочередному выполнению команд; добавление свойств, необходимых для поддержки симметричной мультипроцессорной обработки; включение новых свойств, считающихся необходимыми для работы будущих прикладных программ; обеспечение длительного времени жизни архитектуры путем ее расширения до 64-разрядной.


Архитектура PowerPC поддерживает ту же самую базовую модель программирования и назначение кодов операций команд, что и архитектура POWER. В тех местах, где были сделаны изменения, которые могли потенциально нарушить двоичную совместимость с приложениями, написанными для архитектуры POWER, были расставлены "ловушки", обеспечивающие прерывание и эмуляцию с помощью программных средств. Такие изменения вводились, естественно, только в тех случаях, если соответствующая возможность либо использовалась не очень часто в кодах прикладных программ, либо была изолирована в библиотечных программах, которые можно просто заменить.

Микропроцессор PowerPC поддерживает мультипроцессорную обработку, в частности, модель тесно связанных вычислений в разделяемой памяти. Работа тесно связанных процессоров предполагает использование разными процессорами одной общей памяти и одной операционной системы, управляющей всеми процессорами и аппаратурой системы. Процессоры должны конкурировать за разделяемые ресурсы. В симметричной мультипроцессорной системе все процессоры считаются функционально-эквивалентными и могут выполнять операции ввода/вывода и другие вычисления. Возможности управления подобной системой с разделяемой памятью реализованы в ОС AIX 4.1.

Разработанное Bull семейство Escala обеспечивает масштабируемость и высокую готовность систем, центральным местом которых является симметричная мультипроцессорная архитектура, названная PowerScale, позволяющая производить постепенную модернизацию и объединять в системе от 1 до 8 процессоров.


Архитектура процессоров UltraSPARC


В.Шнитман

Институт системного программирования PAH vzs@ivann.delta.msk.suЭкскурс в историюАрхитектура UltraSPARCОсновные критерии разработкиСтруктура процессора UltraSPARC-IУстройство предварительной выборки и диспетчеризации командКэш-память командОрганизация конвейераУстройство загрузки/записи (LSU)Устройство плавающей точки (FPU)Графическое устройство (GRU)Устройство управления памятью (MMU)Управление интерфейсом памяти (MIU)Кэш-память данныхУправление внешней кэш-памятьюТиповой процессорный модуль UltraSPARC-1Архитектура системной шины UPAНабор графических командПервые системы на базе нового процессораЛитература

Процессорная архитектура SPARC (Scalable Processor Architecture)компании Sun Microsystems является одной из распространенных среди RISC-системС процессоры с архитектурой SPARC лицензированы и изготавливаются по спецификациям компании несколькими производителями: Texas Instruments, Fujitsu, LSI Logic, Bipolar International Technology, Philips, Cypress Semiconductor и RossTechnologies. Эти компании осуществляют поставки процессоров SPARC не только самой Sun Microsystems, но и другим известным производителям вычислительных систем, например Solbourne, Toshiba, Matsushita и Tatung.



Архитектура систем NonStop


На рис. 1 показана базовая архитектура систем NonStop, которая предполагает

объединение двух или более ЦП при помощи дублированной высокоскоростной

межпроцессорной шины. Каждый процессор имеет один или несколько каналов

в/в, соединяющих его с двухпортовыми дисковыми контроллерами и коммуникационными

адаптерами. В действительности у первых пяти поколений систем NonStop:

NonStop I, II, TXP, CLX и VLX было реализовано только по одному каналу

в/в на процессор, а пара разделяемых шин обеспечивала объединение до 16

процессоров. В более поздних реализациях NonStop Cyclone и Himalaya K10000/20000

для увеличения пропускной способности системы межсоединений была применена

сегментация межпроцессорной шины на базе четырехпроцессорных секций. Секции

могут объединяться с помощью оптоволоконных линий связи в узлы - до четырех

секций в узле. Системы NonStop II, TXP, VLX и Cyclone поддерживают также

возможность построения оптоволоконного кольца, которое позволяет объединить

между собой до 14 узлов и обеспечивает быстрый обмен данными внутри домена,

состоящего из 224 процессоров. В Cyclone к процессору могут подсоединяться

несколько каналов в/в, причем каждые четыре канала управляются своей парой

контроллеров прямого доступа к памяти.

Рисунок 1.

Архитектура NonStop

После разработки и успешных испытаний системы Cyclone компания Tandem

перешла на применение в своих изделиях RISC-процессоров компании MIPS,

вместо применявшихся ранее заказных CISC. В системах CLX/R и К200 используются

процессоры R3000, а в системах Himalaya K10000, K20000 и K2000 - процессоры

R4400. Одновременно с объявлением в 1993 году о начале поставок нового

семейства систем Himalaya компания анонсировала также оптоволоконную сеть

межпроцессорного обмена TorusNet, предназначенную для построения крупномасштабных

кластеров. TorusNet обеспечивает соединение четырехпроцессорных секций

с помощью избыточной сети с топологией двухмерного тора.

Все аппаратные компоненты систем NonStop построены на основе принципа


"быстрого проявления неисправности" (fail fast design), в соответствии

с которым каждый компонент должен либо функционировать правильно, либо

немедленно останавливаться. В более ранних системах Tandem реализация этого

принципа опиралась на использование методов проверки четности, избыточного

кодирования или проверки допустимости состояния при выполнении каждой логической

функции. Современные конструкции обнаружения ошибок в сложной логике полагаются

главным образом на методы дублирования и сравнения. Все системы на базе

микропроцессоров для гарантии целостности данных и быстрого обнаружения

неисправностей выполняют сравнение выходов дублированных и взаимно синхронизированных

микропроцессоров. В NonStop ответственность за восстановление после обнаружения

неисправности в аппаратуре возлагается на ПО.

ОС NonStop Kernel систем NonStop непрерывно развивалась и постепенно

превратилась из патентованной фирменной операционной системы в систему,

которая обеспечивает полностью открытые интерфейсы, построенные на основе

промышленных стандартов. Для поддержки устойчивости критически важных процессов

в NonStop Kernel реализованы низкоуровневые механизмы контрольных точек,

а также специальный слой программных средств, на котором строится как патентованная

среда Guardian, так и открытая среда Posix-XPG/4. NonStop Kernel базируется

на механизмах передачи сообщений и обеспечивает средства прозрачного масштабирования

в пределах 16-процессорного узла, 224-процессорного домена или 4080-процессорной

(локальной или глобальной) сети TorusNet.

Архитектура систем Integrity

Основной задачей компании Tandem при разработке систем семейства Integrity

было обеспечение устойчивости к одиночным отказам аппаратуры при соблюдении

100% переносимости стандартных UNIX-приложений. Для маскирования аппаратных

неисправностей в системах Integrity используется тройное модульное резервирование

(TMR - triple-modular redundancy) в процессоре, кэш-памяти и основной памяти

(рис. 2).





Рисунок 2.

Архитектура Integrity

Три процессора выполняют одинаковые потоки команд, но работают с независимой

синхронизацией. Процессоры синхронизируются во время обработки обращений

к глобальной памяти и при обслуживании внешних прерываний. Все обращения

к глобальной памяти с выходов резервируемых процессоров поступают через

схемы голосования в пару контроллеров TMR. Схемы голосования, сравнивая

обращения между собой, обнаруживают возможные неисправности процессоров

и посылают достоверные запросы в остальную часть системы. Для обнаружения

неисправностей в конструкциях контроллера TMR и процессора в/в используются

средства самоконтроля. Каждый периферийный контроллер содержит стандартную

плату VME, которая через специальный адаптер подсоединяется к паре шин

в/в, защищенных четностью. Плата адаптера позволяет осуществлять коммутацию

контроллера с 2 процессорами в/в.

В системах Integrity реализация платы основного процессора не требует

сложной логики самоконтроля. Однако отличает ее конструкцию от конструкции

процессорной платы систем NonStop, хотя в обеих используются одни и те

же микропроцессоры. Архитектура новых систем объединяет требования базовой

конструкции Integrity при сохранении совместимости с требованиями систем

NonStop.


Архитектура системной шины UPA


Обеспечение высокой производительности процессора UltraSPARC-1 потребовало создания гибкой масштабируемой архитектуры межсоединений, позволяющей достаточно просто строить системы для широкого круга приложений от небольших настольных систем индивидуального пользования до больших многопроцессорных корпоративных серверов. Новая архитектура UPA (Ultra Port Architecture) определяет возможности построения целого семейства тесно связанных многопроцессорных систем с общей памятью.

UPA представляет собой спецификацию, описывающую логические и физические интерфейсы порта системной шины, и требования, накладываемые на организацию межсоединений. К этим портам подключаются все устройства системы. Спецификация UPA включает также описание поведения системного контроллера и интерфейс ввода/вывода системы межсоединений.

UPA может поддерживать большое количество (рис. 3) системных портов(32, 64, 128 и т.д.) и включает четыре типа интерфейса. Интерфейс главного устройства выдает в систему межсоединений транзакции чтения/записи по физическому адресу, используя распределенный протокол арбитража для управления адресной шиной. Главное устройство UPA, например процессорный модуль UltraSPARC-1,может включать физически адресуемую когерентную кэш-память, на размер которой в общем случае не накладывается никаких ограничений. Интерфейс подчиненного устройства получает транзакции чтения/записи от главных устройств UPA, поддерживая строгое упорядочивание транзакций одного и того же класса главных устройств, а также транзакций, направляемых по одному и тому же адресу устройства. Порт UPA может быть только подчиненным, например, для подключения графического буфера кадров. Двумя другими дополнительными интерфейсами порта UPA являются источник и обработчик прерываний. Источники прерывания UPA генерируют пакеты прерывания, направляемые к обработчикам прерываний UPA.

Рисунок 3.
Масштабируемая архитектура UPA.

В отличие от традиционных мультипроцессорных систем, поддерживающих когерентное состояние кэш-памяти и разделяющих глобально наблюдаемую адресную шину, архитектура межсоединений UPA основана на пакетной коммутации сообщений по принципу точка-точка.
Поддержка когерентного состояния кэш- памяти системы для настольных рабочих станций, включающих от 1 до 4 процессоров, осуществляется централизованным системным контроллером, а для больших серверов С распределенным системным контроллером. UPA может поддерживать дублирование наборов тегов всех кэшей системы и позволяет для каждой когерентной транзакции выполнять параллельно просмотр дублированных тегов и обращение к основной памяти.

Отход от традиционных методов построения мультипроцессорных систем, основанных на наблюдаемой шине или на справочнике, позволяет существенно минимизировать задержки доступа к данным благодаря сокращению потерь на обработку промахов кэш-памяти. В итоге архитектура межсоединений UPA позволяет более эффективно использовать высокую пропускную способность процессораUltraSPARC-1. Максимальная скорость передачи данных составляет 1.3 Гбайт/с при работе UPA на тактовой частоте 83 МГц.

Разработчики архитектуры UPA многое сделали для минимизации задержек доступа к данным. Например, UPA поддерживает раздельные шины адреса и данных. Именно эти широкие шины С адресная шина имеет 64 бит, а шина данных С 144бит (128 бит данных и 16 бит для контроля ошибок)) обеспечивают пиковую пропускную способность системы. Наличие отдельных шин позволяет устранить задержки, возникающие при переключении разделяемой шины между данными и адресом, а также возможные конфликты доступа к общей шине.

UPA не только поддерживает отдельные шины адреса и данных, но и позволяет иметь несколько шин с организацией соединений точка-точка. Обычно в большинстве систем имеются несколько интерфейсов для обеспечения работы подсистемы ввода/вывода, графической подсистемы и процессора. В мультипроцессорных системах требуются также дополнительные интерфейсы для организации связи между несколькими ЦП. Вместо одного набора шин данных и адреса для всех этих интерфейсов UPA допускает создание неограниченного количества шин.

Подобная организация имеет ряд достоинств. Наличие нескольких наборов шин позволяет минимизировать количество циклов арбитража и уменьшает вероятность конфликтов.


Системный контроллер несет ответственность за работу и взаимодействие различных шин и может параллельно обрабатывать запросы нескольких шин. Он позволяет также уменьшить задержки, связанные с захватом шины. По существу, наличие нескольких шин адреса и данных означает меньшее число потенциальных главных устройств на каждом наборе шин. Для обеспечения наименьшей возможной задержки захвата шины используется распределенный конвейеризованный протокол арбитража. Каждый порт UPA имеет собственные схемы арбитража, при этом каждый порт в системе видит запросы шины всех других портов. Такая схема также позволяет уменьшить задержку доступа и обеспечивает увеличение общей производительности системы.

Архитектура UPA легко адаптируется для работы почти с любой конфигурацией системы С от однопроцессорной до массивно-параллельной. Разработчиками были предусмотрены специальные меры с целью ее оптимизации для систем, содержащих от 1 до 4 процессоров. В результате до четырех тесно связанных процессоров и системный контроллер могут разделять доступ к одной и той же системной адресной шине. Однако на базе богатого набора транзакций и протокола когерентности, которые поддерживаются устройством интерфейса памяти процессора UltraSPARC-1, могут быть построены мультипроцессорные системы с большим количеством процессоров. В архитектуре UPA применяется протокол когерентности, построенный на основе операций записи с аннулированием соответствующих копий блока в кэш-памяти других процессоров системы и использующий для наблюдения дублированные теги. Процессор UltraSPARC поддерживает переходы состояний блоков кэш-памяти, соответствующие протоколам MOESI, MOSI и MSI.

Следует отметить, что в основу архитектуры UPA положены принципы, позволяющие иметь в системе не только несколько мультиплексированных или раздельных шин, но и в широких пределах варьировать разрядность шины данных для удовлетворения различных требований к отношению стоимость/производительность. При этом в различных частях системы в зависимости от конкретных требований может использоваться разная скорость передачи данных.Например, разрядность шины данных системы ввода/вывода вполне может быть ограничена 64 битами, но для согласования с интерфейсом процессора более предпочтительна разрядность в 128 бит. С другой стороны, разрядность шины данных оперативной памяти системы может быть еще более увеличена для обеспечения высокой пропускной способности при использовании более медленных, но более дешевых микросхем памяти С в младших моделях компьютеров на базе микропроцессора UltraSPARC-1используется 256-битовая шина данных памяти, а в старших моделях С 512-битовая.


Архитектура системы на базе ServerNet


Новая системная архитектура, построенная на базе ServerNet, объединяет

свойства систем NonStop и Integrity, решая задачу масштабируемых отказоустойчивых

систем путем реализации гибких методов соединения стандартных функциональных

блоков (модулей ЦП/памяти, подсистем внешней памяти и коммуникационных

адаптеров).

На рис. 3 показана архитектура типичной системы, построенной на базе

ServerNet. Эта система состоит из нескольких процессорных узлов и узлов

ввода/вывода, объединенных друг с другом системной сетью ServerNet. Базовым

элементом сети ServerNet является маршрутизатор, выполненный в виде отдельной

заказной СБИС. Для обеспечения отказоустойчивости предполагается возможность

построения двух независимых подсетей ServerNet: X и Y. В типовой конфигурации

большинство узлов имеют двухпортовые интерфейсы, обеспечивающие подсоединение

каждого узла к этим независимым подсетям. Одной из дополнительных возможностей

новой архитектуры является наличие специальной шины когерентности, допускающей

подключение до четырех ЦП. Эта шина обеспечивает согласованное состояние

общей для нескольких процессорных узлов памяти и их кэшей при выполнении

программ, рассчитанных на мультипроцессорную обработку в системе с разделяемой

общей памятью.

Рисунок 3.

Архитектура системы на базе ServerNet

При работе под управлением операционных систем, поддерживающих отказоустойчивость

программными средствами, например подобных NonStop Kernel, процессорные

узлы выполняют независимые потоки команд. В отличие от более ранних систем,

которые для передачи сообщений между процессорами и реализации операций

ввода/вывода использовали разные интерфейсы, в новой архитектуре все пересылки

данных осуществляются процессором по сети ServerNet.

При использовании операционных систем, в которых отсутствуют специальные

средства поддержки отказоустойчивости, это свойство может быть реализовано

с помощью аппаратных средств путем создания конфигураций ЦП в виде дуплексных

пар. В этом случае пары узлов ЦП выполняют идентичные потоки команд.
Если

один ЦП из пары отказывает, другой продолжает работать. Таким процессорам

в сети ServerNet присваивается общий идентификатор узла, и все пакеты,

адресуемые с помощью этого идентификатора, дублируются и доставляются одновременно

двум ЦП. При отсутствии неисправностей оба ЦП в паре создают идентичные

исходящие пакеты, поэтому в случае нормальной работы логика маршрутизации

ServerNet может выбрать для пересылки пакеты любого узла. При этом для

обнаружения неисправностей используются возможности самой сети ServerNet.

Как уже отмечалось, для обеспечения отказоустойчивости в системе Integrity

требуются три процессорных кристалла и три массива микросхем памяти. Новая

архитектура требует четырех процессорных кристаллов - два на каждый модуль

ЦП - и двух массивов микросхем памяти. Стоимость реализации этих двух подходов

существенно зависит от размера памяти. Для типовых систем оба метода имеют

сравнимую стоимость.


Аспекты безопасности


Надежный сервис сетевой синхронизации времени нуждается в определенных условиях для предотвращения случайных или злонамеренных атак на серверы и клиентские ПК внутри сети. Надежность требует от клиентов возможности определить подлинность полученных от серверов синхронизации сведений, а также удостовериться, что данные действительно получены от верного сервера и не были сгенерированы или подделаны злоумышленником.

Чем грозит подделка показаний времени на бытовом уровне? Представим себе, что намеренно "сбиты" часы на почтовом сервере крупной организации: вместо 2005 года значится, например, 2020-й. В итоге вся корреспонденция имеет огромные шансы никогда не дойти до адресата, поскольку либо клиентская почтовая программа, либо другие почтовые серверы сразу заподозрят неладное и удалят такие письма без предупреждений и сожалений. Необходимо обеспечить возможность проверки подлинности данных любым клиентом для любого сервера синхронизации с использованием только публичной информации. Это целиком относится к таким повсеместным сетевым сервисам, как службы каталогов, управление ключами шифрования и синхронизация времени.

Протокол NTP предусматривает возможность криптографической аутентификации индивидуальных серверов с помощью симметричного шифрования, при котором клиенты проверяют подлинность серверов синхронизации времени, используя разделяемые секретные ключи. Механизм распространения ключей не относится к собственно протоколу NTP, и это может быть достаточно неудобное и "хрупкое" мероприятие, если имеется большое число потенциальных клиентов. Современное шифрование на основе публичных ключей представляет собой средство для надежного связывания идентификационных атрибутов сервера и сопряженных с ними публичных значений с использованием доступных служб каталогов. Однако такой подход автоматически подразумевает высокие накладные расходы на вычисления, особенно в случае большого количества критичных к временным значениям клиентов, что типично для NTP-серверов. К тому же здесь существуют уникальные проблемы, которые заключаются во взаимодействии механизмов аутентификации и синхронизации, так как в данной ситуации один механизм не может успешно работать без другого.

Последняя, четвертая ревизия протокола NTP (NTPv4) обладает переработанной моделью безопасности и схемой подтверждения подлинности с поддержкой шифрования как на основе разделяемых, так и публичных ключей. При работе над вариантом с публичными ключами особое внимание было уделено максимальному снижению риска вторжения, уменьшению требуемой вычислительной мощности и исключению возможных точек взлома протокола.



Балансировка нагрузки


В процессе разработки системы был сделан выбор в направлении использования больших кэшей второго уровня (L2), дополняющих кэши первого уровня (L1),интегрированные в процессорах PowerPC. Это решение породило необходимость более глубокого рассмотрения работы системы в целом. Чтобы получить полное преимущество от применения пространственной локальности данных, присутствующих в кэшах L2, необходимо иметь возможность повторного назначения ранее отложенного процесса на процессор, где он ранее выполнялся, даже если этот процессор не является следующим свободным процессором. Подобная "настройка" системы является основой для балансировки нагрузки и аналогична процессу планирования.

Очевидно, что всегда полезно выполнять процесс на одном и том же процессоре и иметь более высокий коэффициент попаданий в кэш, чем при выполнении процесса на следующем доступном процессоре. Применяя алгоритмы, базирующиеся на средствах ядра системы, можно определить наиболее подходящее использование пула процессоров с учетом текущего коэффициента попаданий в кэш. Это позволяет оптимизировать уровень миграции процессов между процессорами и увеличивает общую пропускную способность системы.



Без драйверов - никуда


Установка графической платы обычно затруднений не вызывает. Поскольку все сегодняшние видеоадаптеры соответствуют спецификации Plug & Play, Windows 98 (как правило) самостоятельно распознает новую плату и пытается с вашей помощью инсталлировать все необходимые драйверы.

Прежде чем вы соберетесь установить плату, перепишите с Web-узла ее производителя новейшую версию драйвера. Не стоит рассчитывать на то, что драйвер, поставлявшийся вместе с платой, - самый последний. Прежде чем попасть к вам, плата могла пролежать некоторое время в магазине, тогда как производители непрерывно работают над улучшением драйверов, устраняя в них ошибки и повышая производительность.



Блоки X-Fi


Вся вычислительная мощность X-Fi разделена между пятью основными блоками: SRC (преобразование частоты сэмплирования, 7310 MIPS, 70%), Filter (наложение фильтров, 200 MIPS, 1,9%), Mixer (аппаратный микшер, 1210 MIPS, 11,7%), Tank ("Бак", 440 MIPS, 4,3%) и DSP (цифровая обработка сигнала, 1180 MIPS, 11,4%).

Преобразование SRC представляет собой весьма ресурсоемкий процесс. Компания применила двойственный подход: SRC-преобразование выполняется как при помощи аппаратного блока, так и с использованием программируемых функций. Выглядит разумно: в результате мы имеем мощь аппаратного пересчета плюс некоторую гибкую программируемую функциональность. Более того, ядро X-Fi способно оперировать не на какой-либо фиксированной частоте (48 кГц у Live!/Audigy), а на двух - 44,1 и 48 кГц. Ядро автоматически переключается на более приемлемый режим работы, хотя есть возможность жестко его зафиксировать.

Итак, учитывая два режима работы ядра X-Fi и аппаратный блок пересчета одной частоты в другую, можно надеяться, что старая проблема наконец решена. Creative Labs заявляет: в аппаратуре такой мощности итоговая производительность звуковых карт может быть ограничена лишь преобразователями ADC/DAC ("аналог-цифра" и "цифра-аналог" соответственно). По всей видимости, продукты высокого уровня на основе X-Fi будут оснащены мощными качественными преобразователями, а среднего и нижнего уровня - более дешевыми и массовыми, поэтому нынешние ухищрения с унифицированными драйверами от Creative, которые зачастую используются с самыми древними SB Live!, могут оказаться бесполезными.

Блок фильтрации предназначен для наложения сотен различных гибких цифровых фильтров, необходимых для пространственного моделирования среды звучания, позиционирования источников звука, синтезирования музыки и прочих типичных для звуковых чипсетов от Creative Labs задач. Этот блок предельно оптимизирован на аппаратном уровне для выполнения своих функций, поэтому вычислительная мощность его сравнительно невелика - 200 MIPS.


X- Fi реализует архитектуру нового типа, которую Creative Labs назвала Audio Ring ("звуковое кольцо"). Ключевым элементом архитектуры можно назвать блок микширования X-Fi - он масштабирует, суммирует и перенаправляет 4096 каналов Audio Ring. Кроме того, микшер выполняет связующую роль для внутренних точек синтезатора, ревербератора, эквалайзера, эффект-процессора и динамического процессора. Мгновенное оперирование 4096 звуковыми каналами есть задача далеко не тривиальная, поэтому микшеру выделено 1210 MIPS от всех имеющихся вычислительных ресурсов.

Интересно происхождение названия еще одного модуля X-Fi - Tank, или Tank Engine. Блок занимается наложением различных эффектов на базе задержек сигнала (например, отражение, реверберация, хор и т. д.). Было время, когда высококачественные линии задержек реализовывались при помощи поверхностных акустических волн в баке (Tank) с ртутью с использованием преобразователей на основе громкоговорителя и микрофона.

Имея 440 MIPS вычислительной мощности, Tank-модуль способен выполнять огромное количество операций вычисления адреса, которые в ином случае были бы возложены на центральный процессор ПК или модуль цифровой обработки сигнала DSP. Производя эти вычисления локально, X-Fi автоматически не зависит от потенциально возможных "пробок" в длинном конвейере основного процессора. При интенсивной обработке звука в таком случае могут появиться щелчки, остановки и прочие звуковые артефакты.

Удачно и "музыкально" назван блок цифровой обработки сигнала - Quartet DSP. Помимо "оркестровой" функции здесь отражена и способность DSP оперировать одновременно четырьмя аппаратными потоками. Quartet DSP это, по сути, настоящий SIMD-процессор (Single Instruction, Multiple Data, одна инструкция, множественные данные), который, по замыслу разработчиков, должен наиболее эффективно поддерживать стереосигнал и комплексные типы данных. Набор инструкций Quartet поддерживает типы данных с фиксированной и плавающей точкой и спроектирован для эффективной временной и частотной обработки сигнала.

Quartet DSP обладает вычислительной мощностью 1200 MFLOPS (сюда не входят операции вычисления адреса или перемещения данных), и инженеры Creative Labs считают, что специализированная архитектура этого блока позволит добиться производительности, близкой к пиковой, чего не сможет сделать "общеупотребительный" центральный процессор ПК. Так, Quartet способен использовать результат одной инструкции как входной операнд другой инструкции без "заторов" в конвейере или принудительного перемещения данных. Стоит сказать, что интегрированные на системные платы аудиорешения и карты на базе VIA Envy 24 не имеют DSP-блоков вообще.


CD-RW и другие


По простоте и дешевизне распространения информации вряд ли найдется что-либо эффективнее записываемых компакт-дисков. Даже при их относительно скромном объеме в 650 Мбайт (620 Мбайт для дисков CD-RW) они представляют собой идеальное средство для создания легкодоступных резервных копий или хранения файлов, требующихся лишь время от времени. Также нужно упомянуть их самое популярное применение: вы можете изготавливать свои собственные музыкальные компакт-диски.

Почти все накопители для записи компакт-дисков являются перезаписывающими, т. е. они позволяют записывать данные как на диски CD-R (около 1 долл. за штуку), так и на диски CD-RW (по 10 долл. за штуку). Цены на дисководы CD-RW сегодня начинаются с отметки ниже 200 долл. Но прежде чем отправляться в магазин, уточните спецификации своего ПК - как правило, требуются процессор не слабее Pentium-166, 32-Мбайт ОЗУ и жесткий диск стандарта UltraDMA/33 для обеспечения достаточно быстрой передачи данных при записи CD. Кроме того, нужно позаботиться и о том, чтобы на жестком диске оставалось свободно не менее 1 Гбайт.

Еще один вариант - дисководы DVD, или DVD-RAM. На их дисках можно хранить до 4,7 Гбайт информации, но при цене порядка 750 долл. их не назовешь особенно дешевыми устройствами. Важнее, однако, то, что производители еще не пришли к общему стандарту, поэтому диски DVD, записанные на одном дисководе DVD-RAM, могут не читаться на другом. Наш совет: повремените с покупкой год, пока не определятся стандарты и не снизятся цены.



Чипсет


В эпоху гигагерц характеристики чипсета X-Fi вряд ли покажутся впечатляющими. Хотя, если сравнивать с графическими чипами, то внушительность ощущаешь - новая разработка Creative Labs работает на тактовой частоте 400 МГц и состоит из 51,1 млн транзисторов (сравнимо с Intel Pentium 4 Northwood, у которого 55 млн транзисторов). 400 МГц уже явно потребуют как минимум радиатора для охлаждения, а о числе транзисторов мы уже сказали. Чипсет будет производиться с применением технологических норм 0,13 мкм, напряжение питания микросхемы составит 1,2 В.

Если вспомнить что Northwood тоже изготавливался с 0,13-микронным процессором, и можно предположить, что в своих размерах чип X-Fi будет сопоставим с этим же процессором. Вычислительная производительность X-Fi предварительно оценивается на уровне 10340 MIPS. Если обратиться к аналогичным параметрам EMU10K2.5, они таковы: 200 МГц, 4,61 млн транзисторов, 0,18 мкм, 1,8 В и 424 MIPS.

Разница в количественных показателях разительная, остается лишь предвкушать возможности, которые могут быть реализованы с помощью X-Fi.

Применительно к процессорам для обработки звука важнейшее значение имеет понятие "логический гейт". Количество логических гейтов у X-Fi примерно 1,6 млн, у EMU10K2.5 - 200 тыс. В данном случае логические гейты обеспечивают кэширование аудиоинформации.

Кэширование при обработке звука, как и при обработке видео, имеет колоссальное значение.

И аудио-, и видеопоток представляют собой массивы данных, требующих обработки в реальном масштабе времени. Если, например, при обработке трехмерной графики "непопадание" в кэш повлечет лишь более низкое количество кадров в секунду, то в случае с аудио и видео это станет причиной рывков, заиканий и пропусков, вплоть до критического завершения приложений, если необходимая порция данных не будет доставлена вовремя.

Работа над чипсетом X-Fi началась около трех с половиной лет назад, когда IT-сообщество замерло в ожидании грядущего выхода шины PCI Express. По этой причине Creative Labs решила сделать акцент на хорошо известной шине PCI с возможностью оперативной адаптации под спецификации PCI Express. Потому первые звуковые карты на основе X-Fi будут с интерфейсом PCI, а более современные PCI Express выйдут по истечении некоторого времени.



Что такое AVFlex?


Краткое описание новой технологии компании Datat General, ключевой особенностью которой является возможность одновременного, параллельного использования UNIX и Windows NT на одном сервере различными приложениями. Описывается адаптивность к изменяющимся рабочим нагрузкам и новым приложениям.

Вычислительная среда AVFlex, основной компонентой которой является сервер AViiON AV25000, представляет собой обширный комплекс услуг и продуктов, облегчающий долгосрочное IT-планирование за счет создания условий для эффективного (по затратам) развития системы и способности адаптироваться к изменяющимся условиям. Набор услуг и продуктов среды AVFlex позволяет пользователям первоначально создавать конфигурации систем, ориентируясь на удовлетворение сегодняшних потребностей, и затем, при изменении задачи или замене используемых приложений, с легкостью изменять эти конфигурации. Такие достоинства обеспечиваются следующими средствами среды AVFflex:

Модульное развитие сервера AV 25000 Совместное использование Масштабируемых Компоновочных Блоков (Scalable Building Blocks - SBBs) AV 20000 и AV 25000. Создание разбиений систем AV 25000, включая возможность одновременного развертывания решений под UNIX и NT в одной и той же системе. Возможность взаимодействия между операционной системой DG/UXТ и Microsoft Windows NT Server. Интегрированное управление системами. Консалтинговые услуги и услуги по внедрению программного и аппаратного обеспечения.



Что-то с памятью моей стало...


Модернизация ОЗУ не принесет такого ощутимого прироста производительности, какой дает замена ЦП, но разницу вы заметите, особенно при одновременной работе с несколькими приложениями. Собственно операция модернизации - установка одного или более модулей памяти в разъемы на системной плате - сложностей обычно не вызывает. Проблема в том, чтобы правильно выбрать модули для вашего ПК. Перед покупкой попробуйте отыскать нужную информацию в документации на системную плату или на Web-узле изготовителя компьютера. Еще один вариант - приобрести память у поставщика, на Web-узле которого содержатся данные о модулях именно для вашей модели, например Crucial (www.crucial.com) или Kingston (www.kingston.com). Имейте также в виду, что вам может потребоваться добавлять модули парами.

В целях эксперимента мы модернизировали Hewlett-Packard Vectra VL 5 Series 5 - машину на базе Pentium-166 (не MMX), выпущенную приблизительно в 1996 г., нарастив у нее память с 16 до 64 Мбайт. Это обошлось нам примерно в 100 долл., заняло 10 мин и повысило производительность ПК в тестах PC WorldBench с 78 до 90 баллов (т. е. на 15%). Хотя она получилась и не слишком высокая (меньше половины производительности современных недорогих ПК), потратить некоторую сумму и время на модернизацию стоит, особенно если вы регулярно переключаетесь между приложениями, используете большие электронные таблицы и графические файлы или выполняете другую работу, требующую много памяти.

Если 64 Мбайт - хорошо, то 128 Мбайт, вероятно, еще лучше, не так ли? Вовсе не обязательно. Опыт с системой HP Vectra показал, что при наращивании ОЗУ до 128 Мбайт производительность даже снизилась, а если ваш ПК выполнен на базе набора микросхем 430FX, 430HX, 430VX или 430TX, то с подобным явлением столкнетесь и вы. Перечисленные наборы микросхем имеют ограничение на объем кэшируемой памяти, из-за чего быстродействие компьютера может уменьшиться, когда объем системного ОЗУ превысит 64 Мбайт. С более новыми наборами микросхем и системными платами на базе наборов не фирмы Intel такой проблемы не возникает, но даже в этом случае наращивание ОЗУ свыше 64 Мбайт обычно приносит лишь небольшое повышение производительности.



CИСТЕМА КОМАНД IA-


В этом разделе статьи мы дадим краткий обзор системы команд IA-64, а точнее, ее "непривилегированной части". Именно это подмножество команд определяет наиболее принципиальные особенности IA-64. Cреди этих принципиальных особенностей следует особо отметить спекулятивное выполнение команд и применение предикатов.

Все рассматриваемые команды можно подразделить на: команды работы со стеком регистров (например, alloc); целочисленные команды; команды сравнения и работы с предикатами; команды доступа в память; команды перехода; мультимедийные команды; команды пересылок между регистрами; "разные" (операции над строками и подсчет числа единиц в слове); команды работы с плавающей запятой.

Целочисленные команды IA-64 включают арифметические операции (add, sub и др.), логические операции (and, or, xor и др.), операции над битами и сдвиги, а также 32-разрядные операции. Большинство этих команд трехадресные, а их аргументы лежат в регистрах; однако встречается и литеральное представление аргументов. Имеются также модификации команд add и sub, которые являются четырехадресными: в них к сумме/разности регистров прибавляется/вычитается 1.

Отметим, что команда умножения целых чисел в регистрах GR отсутствует; для перемножения необходима пересылка целых в регистры FR и применение операции умножения, выполняемой в ФИУ вещественного типа. Некоторые специалисты считают это "наименее удачной" чертой системы команд IA-64.

Команды сравнения и работа с предикатами - это одна из принципиально новых особенностей IA-64 по сравнению с RISC-архитектурой. Приведем сначала несколько типичных примеров команд этой группы. Команда cmp сравнивает два регистра GR (или регистр GR и литерал) на одно из 10 возможных условий (больше, меньше или равно и т.п.). Команда tbit тестирует заданный бит GR. Команда fcmp сравнивает два числа с плавающей запятой. Однако результатом сравнения является не единственный код условия, что типично для обычных процессоров. Логический результат сравнения (1 - истина, 0 - ложь) записывается обычно в пару предикатных регистров (во второй пишется отрицание первого).


Эти значения предикатных регистров используются затем не только в командах условного перехода, как в обычных микропроцессорах. Почти все команды IA-64 выполнимы "под предикатом", т.е. могут выполняться или нет в зависимости от значения указанного в команде PR-регистра. Это позволяет во многих случаях избежать применения условных переходов, которые, как известно, отрицательно сказываются на производительности микропроцессоров. Вместо этого процессор c архитектурой IA-64, имеющий большое число ресурсов (в частности, регистров и ФИУ), может исполнить обе ветви программы. Рассмотрим простейший Пример 1.

Пример 1.

Фрагмент программы в фортрановском представлении: IF(I.EQ.J) THEN K=K+1 ELSE L=L+1 ENDIF

в ассемблерном: cmp.eq p3,p4=r4,r5;; (p3) add r6=r6,r0,1 (p4) add r7=r7,r0,1

(мы используем, вслед за [1], "фортрановский" синтаксис). Предположим, что значения I, J, K, L уже лежат в r4, r5, r6, r7 cоответственно (так обозначаются регистры GR в ассемблере IA-64). Тогда мы получим следующий фрагмент программы...

Здесь команды сложения add использованы в четырехадресной форме; они помещают в регистр-результат (r6 и r7 соответственно) старое значение этого регистра плюс 1 (формально еще плюс значение в r0, которое равно нулю). Команды add используются с так называемыми квалифицирующими предикатами p3, p4. Если значения I и J совпадают, то получаем значения предикатных регистров (p3) = 1, а (р4) = 0. Тогда первая команда add выполняется, а вторая - нет.

Преимуществом такого подхода состоит в линейности выполняемого участка программы вместо ветвления. Обе команды add могут, кстати, выполниться параллельно. Возможности команд типа условной пересылки cmove в ряде RISC-процессоров, в общем случае значительно меньше, чем предикатный подход. Это преимущество IA-64 становится еще более существенным, если учесть расширенные возможности спекулятивного выполнения команд в IA-64.

Спекулятивное выполнение

Рассмотрим теперь команды доступа в память. Прежде всего, это команды загрузки регистров и записи из них в оперативную память.


Команда ld загружает в GR 1-, 2-, 4- и 8- байтные целочисленные величины; аналогично ldf загружает в FR числа с плавающей запятой размером 4, 8, 10 байт, а также пары 4-байтных чисел. В этих командах можно указать также на тонкие особенности работы с оперативной памятью и кэшем. Имеются и специальные команды работы с кэшем.

Принципиальной является возможность кодирования указанных команд загрузки в специальных спекулятивных формах. Различают загрузку спекулятивную по управлению и спекулятивную по данным.

Спекулятивное по управлению выполнение означает возможность заранее выполнить команды, расположенные за командой условного перехода, до того, как будет известно, будет ли осуществляться этот условный переход на соответствующую ветвь программы. При наличии большого числа ресурсов процессора это позволяет заранее запускать на выполнение команды, которые начнут выполняться одновременно с уже начавшими выполняться другими командами (в других ФИУ). Однако позднее может выясниться, что эти спекулятивно выполненные команды оказались выполненными напрасно, так как переход на эту ветвь не произошел, и нужно произвести "откат".

Поскольку эти спекулятивно выполненные команды могут привести к прерыванию, в IA-64 предусмотрен механизм, позволяющий зафиксировать, что возникло прерывание, но само прерывание "отложить" до тех пор, пока не будет затребован опрос его наличия. Признак отложенного прерывания записывается в регистр результата (затем его можно опросить специальной командой chk.s). В дальнейшем признак отложенного прерывания последовательно "распространяется" на регистры результатов спекулятивных команд, в регистрах исходных данных которых взведен признак отложенного прерывания.

Все команды можно разделить на спекулятивно выполнимые и спекулятивно невыполнимые. Последние могут вызывать прерывания, которые не могут быть отложены. Обычные вычислительные команды, имеющие GR или FR в качестве регистров результата, - спекулятивные. Если же команда изменяет другие типы регистров, она неспекулятивная.



Кроме обычных неспекулятивных команд (ld, ldf...) в IA- 64 имеются их спекулятивные модификации (ld.s, ldf.s...). Вычислительные команды в общем случае не вызывают прерываний (операции с плавающей запятой обрабатывают прерывания специальным образом), поэтому единственным способом сгенерировать признак отложенного прерывания являются команды спекулятивной загрузки. Другие команды его могут только "распространять".

В точке программы, где надо использовать результат спекулятивного выполнения, следует применять спекулятивную команду chk.s, проверяющую признак отложенного прерывания. Если оно имелось, chk.s передаст управление по указанному в ней адресу, по которому программист должен расположить коды обработки ситуации. Поскольку стало ясно, что спекулятивное выполнение команды действительно понадобилось, можно закодировать копию спекулятивно выполненного фрагмента программы, но уже с неспекулятивными командами загрузки.

Другой тип спекулятивного выполнения может иметь место, когда вслед за записью в память идет команда загрузки регистра, и невозможно заранее определить, не будут ли перекрываться в памяти используемые этими командами данные. В IA-64 имеются спекулятивные команды загрузки (ld.a, ldf.a...), которые называются "усовершенствованными" (advanced) командами загрузки. Аналогично взаимозависимости между командами по управлению, "расшиваемой" применением спекулятивных команд с "постфиксом" .s, продвинутые команды загрузки вместе с соответствующей командой проверки chk.a (аналог chk.s) позволяют исключить задержки выполнения при наличии взаимозависимости по данным.

Обратимся теперь к командам перехода. Адрес перехода выравнивается всегда на границу связки, т.е. управление передается на ее слот 0. Имеется команда перехода относительно счетчика команд, в которой явно кодируется 21-разрядное смещение. Эти переходы осуществимы в пределах +/-16 Мбайт относительно счетчика. В непрямых командах перехода адрес перехода задается в регистре BR.



Обычный условный переход br.cond, или просто br, использует значение кодируемого в команде предикатного регистра PR для определения истинности условия. Указав в команде PR0, в котором всегда лежит 1, можно получить безусловный переход. PR0 кодируется также в командах вызова процедур/возврата (br.call/br.ret). Имеется 5 типов команд перехода, применяемых для организации циклов. Команда br.cloop используется для организации циклов со счетчиком, в которых адрес перехода кодируется относительно IP. В команде используется регистр LC: если он не равен 0, его содержимое уменьшается на 1, и выполняется переход; если LC = 0, перехода не будет. Применение команд работы с циклами мы рассмотрим позже при обсуждении программно конвейеризованных циклов.

В расширении кода операции команды перехода можно закодировать подсказку для процессора о стратегии динамического или статического предсказания этого перехода. Подобные схемы используются в PA-8x00.

Операции с плавающей запятой

Программная модель вычислений с плавающей запятой в IA-64, в отличие от IA-32, ориентирована на работу с регистрами FR, а не со стеком, что уже само по себе облегчает создание более высокопроизводительных программ. В IA-64 непосредственно поддерживается 6 типов данных, в том числе три стандарта IEEE754 (одинарная точность SP, двойная точность DP и двойная расширенная точность DE),

82-разрядный формат FR и 64-разрядные целые - со знаком и без знака. Формат DE, также как и формат с размещением двух чисел (SP) с плавающей запятой, используемый в векторных мультимедийных командах, унаследован архитектурой IA-64 от IA-32. Формат регистров FR включает 64-разрядную мантиссу, 17-разрядный порядок и 1 бит под знак числа. Кроме того, на уровне подпрограмм предлагается поддержка четверной точности.

В 64-разрядном регистре FPSR указываются признаки деления на ноль, переполнения порядка, исчезновения порядка, потери значимости, формат данных и другая информация о состоянии.

FP-команды загрузки имеют модификации, соответствующие всем аппаратно поддерживаемым типам данных, которые в ассемблере задаются последним символом мнемокода (lfds - для SP, ldfd - для DP и т.д.).


Арифметические команды включают операции типа "умножить-и-сложить" и "умножить-и-вычесть", команды вычисления максимума/минимума, а также команды расчета обратной величины и обратного квадратного корня. Применение двух последних вместо команд деления и квадратного корня соответственно упрощает работу с конвейерами. Реализация команды обращения вместо деления была применена, как известно, еще в легендарном Cray-1.

Приведем Пример 2, иллюстрирующий как работу с плавающей запятой, так и организацию циклов со счетчиком - сложение двух массивов чисел с плавающей запятой (DP).

Пример 2.

Фрагмент программы в фортрановском представлении: DO I=1,N C(I)=A(I)+B(I) ENDDO

в ассемблерном: Lbl: ldfd f6=[r6],8 //Загрузка в f6 A(I) ldfd f7=[r7],8;; //Загрузка в f7 B(I) fadd f8=f6, f7;; //Сложение f6 и f7 stfd [r8]=f8,8 //Запись C(I) br.cloop Lbl;; //Переход на метку

В его ассемблерном представлении приведено только собственно тело цикла.

В этом примере предполагается, что в регистре r6 лежит адрес начала массива A, в r7 - начала массива B, а в r8 - начала массива С. После выполнения каждой команды ldfd и команды stfd содержимое регистров r6-8 соответственно увеличивается на 8 (размер элемента массива в байтах), что указывается в последнем аргументе этих команд. Команда fadd складывает регистры f6 и f7, помещая результат в f8. Наконец, br.cloop обеспечивает переход на начало тела цикла. Не правда ли, очень похоже на старый добрый RISC? То ли еще будет...


Дилемма DVD


Для большинства пользователей даже самые быстрые дисководы CD-ROM, например модели фирм Kenwood и HiVal со скоростью 52X, не являются такими уж соблазнительными, чтобы ради них затевать модернизацию. Поэтому, говоря о совершенствовании CD-ROM, правильнее поставить вопрос так: нужен ли вам дисковод DVD-ROM? Следует иметь в виду, что DVD-ROM все еще не сумел справиться с CD-ROM. Главная причина этого: за исключением фильмов, на DVD сегодня доступно очень немного приложений, отчасти потому, что программам не требуется предоставляемый DVD объем в 4,7 Гбайт. Одно из немногих исключений - подборка журнала The Complete National Geographic за все 109 лет его издания, выпущенная на 31 диске CD-ROM или всего на 4 дисках DVD.

Стоит ли вам добавлять в свою систему накопитель DVD-ROM? Нет, если только вы не собираетесь смотреть на DVD фильмы или играть в наиболее искусно выполненные игры (некоторые из них, например Riven, впервые появляются именно на DVD-ROM). Но даже для просмотра фильмов лучше использовать бытовой DVD-проигрыватель, поскольку такие устройства обеспечивают более высокое качество изображения, чем системы на базе ПК, а цены на них приближаются к отметке 200 долл.

Если же вы все-таки решили купить дисковод DVD-ROM, выбирайте набор вроде PC-DVD Encore 6X с Dxr3 компании Creative Labs. Такие наборы включают в себя аппаратный декодер MPEG для просмотра сжатого содержимого дисков DVD с фильмами (накопители DVD с программно реализованными декодерами стоят около 100 долл., но для работы им требуются мощные процессоры, например Pentium III, при этом качество изображения у них все равно ниже, чем у моделей с аппаратным декодированием). Кроме того, вам потребуются неплохие динамики и звуковая плата.

Добавление в систему набора DVD может быть сопряжено с некоторыми осложнениями, особенно если вы устанавливаете новую звуковую плату и оставляете имеющийся накопитель CD-ROM. Вам придется разобраться с множеством кабелей и инсталлировать массу ПО, при этом не исключены конфликты с другими компонентами ПК. Поэтому перед установкой внимательно прочитайте документацию, оставьте себе достаточно времени на эту процедуру и будьте готовы, что, возможно, придется обратиться за помощью к поставщику накопителя.



Дисковые подсистемы ввода-вывода


Система Teradata DBC/1024 первой рассеяла представление о том, что микропроцессоры не могут управлять очень большим числом дисковых накопителей (так называемыми" большими фермами дисков"). В ряде организаций даже самые большие мэйнфреймы служат только в качестве фронтальных систем к кластеру Teradata. Этот кластер включает несколько сотен процессоров Intel 486, которые управляют доступом к нескольким тысячам дисков SCSI. Многие крупные организации розничной торговли используют такие многотерабайтные дисковые фермы для анализа своей деятельности по продаже и оптимизации учета товаров. Эти системы обеспечивают очень высокую производительность даже при очень интенсивной обработке данных в системах принятия решений.

Еще сравнительно недавно системы на базе персональных компьютеров были ограничены необходимостью совместимости с шиной PC-AT, которая обеспечивала скорость ввода-вывода всего несколькими мегабайтами в секунду; это меньше, чем скорость передачи данных одного современного диска. Современные серверы, построенные на базе процессоров Intel и RISC-процессоров, оснащаются шинами SBus, PCI и MicroChannel cо скоростью передачи данных 100, 132 и 160 Мбайт/с, соответственно, а общая пропускная способность их подсистем ввода-вывода ограничивается лишь возможностями применяемой системной шины и находится в диапазоне 0,6-2,5 Гбайт/с.

Таким образом, дисковые архитектуры современных серверов имеют очень высокую производительность. Современные "малые" Fast/ Wide/DifferentialSCSI-диски обеспечивают скорость передачи данных до 12,5 Мбайт/с, а измерения скорости массивов таких дисков превысили уровень 60 Мбайт/с. Современные диски SCSI являются столь же надежными, что и их собратья с мэйнфреймов, но примерно в два раза быстрее и примерно в 10 раз дешевле.

Если все обстоит так хорошо, то какие же проблемы связаны с реализацией дискового ввода-вывода в СУБД и выбором конфигурации дисковой подсистемы? Рассмотрим их по порядку.



Дуплексная обработка


Аппаратная отказоустойчивая система реализуется с помощью дуплексной

пары, созданной путем соответствующего конфигурирования двух процессорных

модулей. Идентичное состояние памяти и кэшей в этих двух модулях поддерживается

благодаря выполнению на обоих ЦП одного и того же программного кода с теми

же самыми данными, а также поступлению в память обоих ЦП всего потока ввода.

Оба ЦП генерируют идентичные исходящие потоки вывода. Один из этих потоков

выбирается маршрутизаторами для пересылки в контроллеры в/в или другие

процессоры.

Дуплексная работа затрагивает три аспекта построения системы: межмодульную

синхронизацию, синхронизацию уровня линий связи ServerNet и обработку ошибок.

Для реализации дуплексного режима требуются два маршрутизатора в различных

подсетях ServerNet и два ЦП, подсоединенных к разным шинам когерентности

для работы с разделяемой памятью. Отказ одного из компонентов системы не

может вывести из строя оба ЦП или оба маршрутизатора. Все ЦП, разделяющие

шину когерентности, имеют общую синхронизацию. Специалисты Tandem называют

эту комбинацию ЦП, шины когерентности и системы синхронизации слайсом.

Система, сконфигурированная для дуплексной работы, имеет два слайса.

Работа дуплексной системы требует синхронной работы двух слайсов. Процессоры

в каждом слайсе в одном и том же такте выполняют идентичные команды. Входной

поток ввода поступает в интерфейс памяти каждого ЦП в одном и том же такте,

поэтому в нормальных условиях при отсутствии неисправностей поведение слайсов

будет полностью идентичным.

Модули ЦП имеют развитые средства обнаружения неисправностей. ЦП останавливается

при обнаружении его схемами контроля любой ошибки. Остановка ЦП приводит

к тому, что по обоим его портам ServerNet будет передана запрещенная кодовая

комбинация. В результате маршрутизатор может определить неисправный ЦП

- основополагающим правилом системы установлено, что все ошибки ЦП должны

приводить к передачам по ServerNet запрещенных кодовых комбинаций.
Когда

маршрутизатор, подсоединенный к дуплексному ЦП, обнаруживает ошибку, он

начинает выполнение протокола восстановления. Этот протокол реализован

полностью аппаратно. При этом один из ЦП исключается из работы, а другой

продолжает функционировать - протокол гарантирует, что исправный ЦП останется

работать. Однако существуют случаи, когда в исключенном ЦП неисправности

отсутствуют. Например, к исключению ЦП из работы могут привести неисправности

в одном из маршрутизаторов или в одной из линий связи ServerNet. В этих

случаях система обслуживания может исключить из работы неисправный маршрутизатор,

а исключенный ЦП перевести в состояние on-line.

Если при пересылке пакета из ЦП маршрутизатор обнаруживает неисправность

линии связи ServerNet, он помечает пакет как недостоверный. Любой узел

ServerNet, который получит этот пакет, будет его игнорировать, а это означает,

что неисправность в ЦП, маршрутизаторе или линии связи может привести к

потере одного или нескольких пакетов. При нормальной дуплексной работе

только один из двух маршрутизаторов дуплексных процессоров пересылает пакеты,

поступающие из каждого ЦП. Это ограничивает потерю пакетов пределами одной

подсети ServerNet. Интерфейсные кристаллы обнаруживают потерю пакетов ServerNet

с помощью средств временного контроля. ПО ввода/вывода выполняет восстановление

путем повторной передачи данных по альтернативному пути.



Рисунок 5.

Блок-схема ЦП


Емкость и пропускная способность дисковой памяти


Одной из наиболее общих проблем в СУБД является обеспечение большой емкости дисковой памяти для хранения данных при достаточной пропускной способности дисковой подсистемы. На большинстве серверов при выполнении обращений к диску доминируют операции произвольного доступа. Сегодня на рынке имеется множество дисков, но их производительность при выполнении операций произвольного доступа почти одна и та же: 65-70 операций в секунду!

По этим причинам наилучшие возможности при организации ввода-вывода почти всегда достигаются при использовании наименьшего по емкости диска, даже когда больший диск имеет превосходные спецификации по всем параметрам. Например, в 1994 году сервер SPARCserver 1000 мог оснащаться дисками емкостью535 Мбайт, 1,05 Гбайт и 2,1 Гбайт. Как видно из таблицы 4 для заданного объема дисковой памяти (16 Гбайт), общая пропускная способность дисковой подсистемы существенно выше при использовании дисков 535 Мбайт (больше чем в три раза).

НМДТребуемое количествоОбщая скорость оп/сСтрок SCSIСтоимость (1994 г.)Цена за операцию
535 Мбайт3218248$50360$27
1.05 Гбайт1610724$39580$37
2.1 Гбайт84962$37390$75

Таблица 4.
Емкость ввода-вывода для памяти 16 Гбайт.

Применение дисков такой малой емкости не всегда практично, поскольку общие требования к емкости дисковой подсистемы могут привести к использованию дисков большей емкости, или, возможно, в системе окажется недостаточно доступных слотов периферийной шины для конфигурирования необходимого числа главных адаптеров SCSI. Тем не менее было бы серьезной ошибкой подбирать для системы дисковые накопители исключительно исходя из требуемой общей емкости дисковой памяти. Хотя эта проблема не нова, со временем она становится все более серьезной, поскольку емкость дисковых накопителей и требования к общей емкости дисковой памяти начинают увеличиваться значительно более быстрыми темпами, чем скорость доступа к дискам.



Еще мощнее, еще надежнее


С тем, что общее и самое главное требование для всех без исключения ИБП любой мощности является надежность, не поспоришь. Таким образом, большинство инженерных работ по совершенствованию источников бесперебойного питания ведутся именно в направлении дальнейшего повышения этого параметра. Если говорить о резервных комплексах средней и высокой мощности, то тут встает вопрос о корректном распределении энергопотоков, то есть о качественно новых функциях управления. Кроме того, не последним параметром, на который следует обращать внимание при выборе решения, считается масштабирование и форм-фактор. Попробуем разобраться в указанных параметрах на примерах.

Начнем с повышения надежности, которое возможно, скажем, путем организации в ИБП байпасов (контур, соединяющий вход источника бесперебойного питания с его выходом). Данные контуры включаются в цепь питания в случае аварийных режимов устройств резервного питания или проведения в них ремонтно-профилактических работ, при этом важно, чтобы ИБП позволял провести ремонт без отключения от питающих зажимов. Еще один важный момент - наличие автоматического переключателя на байпас или же переключателя комбинированного действия.

Для организации электроснабжения систем с требованием максимальной степени надежности от сбоев электросети применяется избыточное резервирование основных модулей или же параллельное включение нескольких устройств. Данный принцип реализуется у всех производителей. Новый мощный трехфазный ИБП производства компании Invensys Powerware - Powerware 9340 Hot Sync - ориентирован на решение проблем с электропитанием в системах электронного бизнеса, центрах обработки данных, серверных комнатах, телекоммуникационных центрах, ответственном оборудовании в больницах т. д. Powerware 9340 Hot Sync - трехфазная система бесперебойного питания класса on-line с двойным преобразованием энергии, позволяющая конфигурировать для параллельной работы до четырех модулей ИБП с использованием запатентованной технологии разделения нагрузки Hot Sync и объединительного модуля системы SMP9340. Powerware 9340 Hot Sync поставляется в трех конфигурациях (мощностью 80, 100 или 130 кВА) и поддерживает как режим работы с резервированием типа N+1, так и режим с наращиванием мощности. Технология Hot Sync для резервирования позволяет устанавливать параллельные конфигурации системы бесперебойного электропитания типа 1+1, 2+1 или 3+1 с общей выходной мощностью до 390 кВА, а для наращивания мощности - параллельно два, три или четыре модуля ИБП с общей выходной мощностью до 520 кВА.

К характерным отличительным чертам Powerware 9340 Hot Sync можно отнести следующие: подавление высших гармоник с помощью технологии выпрямителя на базе IGBT-транзисторов; технология инвертора с адаптивным управлением током; технология управления зарядом батарей Advanced Battery Management (ABM) с температурной компенсацией и оперативной проверкой на разряд. Необходимо также отметить, что исполняются описанные решения в виде металлического шкафа, - это весьма удобно при установке и монтаже, а также при сервисном и каждодневном обслуживании.

Аналогичный с электрической точки зрения способ сверхнадежного резервирования реализован в комплексе Symmetra от APC. ИБП Symmetra (RM) построен по модульному типу, его еще называют массивом электропитания. Входящие в его состав блоки поддерживают избыточность типа N+1, то есть при выходе из строя одного его функции выполняют оставшиеся работоспособные блоки. Данный комплекс содержит источник питания, который способен поддерживать нагрузку до 12 кВА с резервированием N+1 (или 16 кВА без резервирования). Он может быть размещен в стойке или специальном корпусе высотой 15U. Кроме того, имеется стандартный набор клемм для жесткой фиксации входных кабелей, а также розетки, обеспечивающие гибкость подключения выходных кабелей и отсутствие путаницы между ними. В комплект поставки массива Symmetra RM 8-12 кВА входит и карта управления через Web/SNMP, ПО PowerChute Network Shutdown (для согласованного завершения работы нескольких серверов обслуживаемой локальной сети), карта мониторинга батарей, а также встроенный автоматический и ручной байпас, создающий дополнительный контур электропитания в системах без резервирования.

Другая не менее важная характеристика - возможность масштабирования. В условиях растущего бизнеса молодому предприятию требуется быстрое расширение компьютерной базы и, следовательно, увеличение мощности имеющихся источников бесперебойного питания. С учетом достаточно высокой цены решений даже средней мощности, покупка нового оборудования каждые N лет может показаться неоправданной тратой. Параллельное включение нескольких ИБП также возможно не всегда, поскольку в таком случае будет нарушен баланс фаз и амплитуд выходных параметров энергосистемы. Однако выход из подобного положения существует - это источники бесперебойного питания, в которых реализована поддержка цепей синхронизации или увеличение модулей мощности (модульные ИБП). Например, в ИБП швейцарско-голландского холдинга IMV такая возможность реализована за счет фирменной технологии Redundant Parallel Architecture (RPA), присутствующей в следующих новых моделях: LP-11 (первая цифра обозначает количество фаз на входе, вторая - на выходе) с мощностями 3, 5, 6, 8 и 10 кВА; LP-31 (5, 6, 8, 10, 15 и 20 кВА) и LP-33 (8, 10, 15, 20 и 30 кВА). Все устройства имеют архитектуру on-line (непрерывного действия) и предназначены для централизованной защиты электропитания. Несмотря на то что это устройства среднего класса, в них в полной мере используются технологии, характерные для высокоуровневых продуктов. Двойное преобразование энергии в сочетании с байпасом с автоматическим и ручным переключением обеспечивает высокую надежность в случае перебоев с подачей электропитания и колебаний напряжения в сети. Применение схемы управления Intelligent Energy Management (IEM) продлевает жизнь батарей. В соответствии с ней нагрузка в штатном режиме подсоединяется к основному источнику питания, и только в критических ситуациях устройство переключается в режим двойного преобразования (Этот режим есть у всех других производителей). С помощью схем коррекции входной фактор мощности достигает значения, близкого к единице, что снижает требования к мощности подключаемого дизель-генератора. Однако, пожалуй, наиболее интересной особенностью семейства является возможность параллельного подключения до четырех устройств, которая реализуется с помощью фирменной технологии Redundant Parallel Architecture (RPA) Аналогичное решение есть у всех производителей.

Определенного рода аналог описанному устройству имеется и в линейке ИБП компании Liebert - это новый трехфазный ИБП мощностью 10-30 кВА из линейки HiNET. Устройства данного класса поддерживают четыре уровня мощности: 10, 15, 20 и 30 кВА. В них реализована возможность расширения одной модели по мощности от 10 до 30 кВА путем замены плат в ИБП (при этом не обеспечивается резервирование) с подключением дополнительных батарей, а также технология True Online с двойным преобразованием напряжения. Используемый в системе инвертор с широтно-импульсной модуляцией построен на основе высокочастотных IGBT-транзисторов, что позволяет системе работать в весьма широком диапазоне входного напряжения без перехода на батареи 300-480 В. Кроме того, в системе осуществляется полная фильтрация входного сигнала и RFI-фильтрование, чтобы предотвратить повреждения и сбои нагрузки от поступающих из сети кратковременных выбросов, искажений сигнала или переходных процессов, даже в режиме обхода (Bypass). Интересно, что конструкторы компании Liebert снабдили свое решение еще и внутренним ручным обходом.

Другой способ масштабирования мощности системы - расширение за счет подсоединения внешних батарей. Такая возможность давно стала стандартной для большинства корпоративных систем. Хотя данная функция задумывалась как способ увеличения времени автономной работы ИБП при полном внешнем обесточивании, ей можно, в некоторой мере, воспользоваться и при увеличении общей мощности системы резервного питания. Зависимость мощности и тока нагрузки от количества присоединенных батарей не является линейной величиной, поэтому при желании такого расширения необходимо пользоваться специальной справочной литературой или таблицами, предоставляемыми производителем.



FACSys Fax Messaging Gateway


ЭКРАН 2. FACSys Administrator.

FACSys Fax Messaging Gateway компании Optus Software (http://www.facsys.com) устанавливается на выделенный сервер, при необходимости его дополняет модуль интеграции с почтовой системой. Среди поддерживаемых систем SAP R3, Microsoft Mail, Lotus Notes, Lotus cc:Mail, Novell Groupwise, Novell MHS, Microsoft Exchange Server. Процедура инсталляции продукта в базовой конфигурации никаких затруднений не вызывает.

FACSys имеет свою собственную клиентскую часть, а также позволяет клиентам работать с факсами из Web-браузера и отправлять факсы по SMTP.

Наряду с базовой функциональностью факс-сервера, FACSys имеет следующие особенности:

включает средства подготовки отчетов, возможность финансового учета (биллинг); предоставляет усовершенствованное средство просмотра и редактирования факсов; в нем реализована процедура регистрации и утверждения исходящих факсов специально уполномоченным сотрудником; совместим с почтовыми системами Novell Groupwise, Lotus Notes, cc:Mail как стандартная возможность продукта; стоит особо отметить, что FACSys является открытой системой. В поставку ПО входит средство разработки приложений Active Fax Messaging SDK, позволяющее интегрировать FACSys c другими приложениями, используемыми в компании.

В продукте лицензируются пользователи системы; отдельно лицензируются клиенты Fax Connector for Microsoft Exchange - модуля интеграции с Microsoft Exchange Server.

Рекомендации. FACSys я считаю оптимальным решением для компаний, ориентированных на платформу Windows NT c возможностью интеграции с почтовыми системами Novell Groupwise и Lotus Notes.



Файловые системы по сравнению с "чистыми"(неструктурированными) дисками


Первоначально при разработке файловых систем Unix и DOS не ставилась задача обеспечения высокопроизводительного дискового ввода-вывода. В традиционной файловой системе Unix, в отличие от экстентных систем типа OS/360 и VMS, данные отображаются на диск в виде дерева небольших блоков, они копируются по крайней мере дважды (поскольку перемещаются через буферный пул), и все операции ввода-вывода выполняются как синхронные запросы. В современных версиях Unix эти недостатки давно уже учтены, и в них реализованы возможности организации асинхронного и не буферизованного ввода-вывода.

Кроме того, для удовлетворения нужд интенсивных по вводу-выводу приложений почти все системы Unix обеспечивают интерфейс "чистых" дисков. Системный администратор может определять зоны диска, которые выделяются приложению (эти зоны выглядят как файлы). Затем приложение может выполнять прямые операции Get_Block() и Put_Block для чтения и записи в такие файлы. Этот интерфейс имеет малые накладные расходы.

Большинство СУБД позволяют администратору системы выбрать способ размещения файлов СУБД (на "чистых" дисках или в стандартной файловой системе Unix). Некоторые системы, наиболее известными из которых являются Ingres и Interbase, навязывают использование файловой системы Unix. Для систем, которые допускают выбор указанных возможностей, приходится оценивать целый ряд разных критериев.

Хранение данных в файловой системе оказывается менее эффективным (отличие составляет, по крайней мере, 10%), поскольку при выполнении каждого обращения к диску со стороны СУБД в работу включается дополнительный слой системного ПО. Поскольку в больших СУБД часто одним из ограничивающих ресурсов является мощность процессора, использование "чистых" разделов (raw partition)улучшает производительность системы при пиковой нагрузке. Только по этой причине большинство администраторов баз данных обычно предпочитают хранение данных на "чистых" разделах дисков.

Хранение данных в файловой системе приводит также к определенной потере емкости памяти.
Файловая система Unix потребляет примерно 10% от форматированной емкости дисков для метаданных о файлах и файловой системе. Более того, файловая система резервирует 10% оставшегося пространства, чтобы обеспечить быстрый поиск свободного пространства в случае расширения файлов. Если СУБД работает с данными через файловую систему, то по сравнению с "чистым" диском емкость дисковой памяти в целом уменьшается на 19%.

Имеется несколько важных причин, по которым в СУБД используется хранение данных в файловой системе. Большинство из них связано с обеспечением гибкости или относится к разряду более знакомой для пользователя технологии.

Во-первых, и, что, возможно, наиболее важно, использование файловой системы позволяет работать с памятью с помощью стандартных утилит Unix. Например, стандартные утилиты Unix ufsdump и ufsrestore могут использоваться для того, чтобы производить надежное резервное копирование и восстановление памяти СУБД. К тому же гораздо проще осуществлять манипулирование отдельными частями базы данных. Например, можно осуществлять прямое перемещение таблицы с одного диска на другой, даже если используются диски разного размера и типа. Хотя каждый из поставщиков СУБД предлагает свои собственные внутренние утилиты резервного копирования и восстановления, все они различны. Более того, некоторые из них выполняются настолько медленно, что заказчики часто применяют копирование физических томов (т. е. используют команду dd(1))со всеми присущими такому копированию сложностями. Хранение данных в файловой системе позволяет выполнять единообразные, надежные процедуры для того, чтобы работать через систему и сеть. При этом, если необходимо, могут также использоваться инструментальные средства поставщиков СУБД.


Факс-системы в России


Универсального решения, которое может быть предложено в любой ситуации, естественно, нет. Далее перейдем к обзору корпоративных факс-систем, удовлетворяющих изложенным выше требованиям и, вместе с тем, имеющих ряд индивидуальных особенностей, которые позволяют решать большинство задач, связанных с обработкой факсов. Я подготовил данный обзор, используя собственный опыт установки и поддержки решений у заказчиков, среди которых: ММВБ (Faxination, факс-платы Brooktrout), фармацевтическая компания "Время" (Faxination, факс-плата Dialogic, интеграция с SAP R/3), Приморское Морское Пароходство (Faxination, интеграция с Lotus Notes), Сибирско-Уральская Алюминиевая Компания (FaxSys, интеграция с Novell Groupwise), Toyota Business Car (SmartPhone, интеграция с АТС Siemens) и многие другие. Базовые характеристики систем представлены в Таблице 2.



Faxination for MS Exchange Server


Тем, кто уже использует MS Exchange Server для обмена сообщениями электронной почты, имеет смысл расширить его возможности - поручить системе Faxination for MS Exchange отправку и прием факсов.

Процесс установки относительно прост. Faxination for Microsoft Exchange реализован как служба Windows NT. Faxination по отношению к Exchange является факс-коннектором, наряду с имеющимися коннекторами Exchange X.400 и SMTP. Faxination может быть установлен как на тот же сервер, что и Microsoft Exchange, так и на выделенный компьютер, при этом на Exchange-сервере будет удаленно установлен минимальный набор компонентов. Некоторые трудности могут возникнуть из-за того, что стандартная программа установки не предусматривает поддержку русского языка, однако эта проблема легко решается. Администрирование продукта производится из Faxination Server Administrator, однако благодаря тесной интеграции с Exchange Server большинство параметров может быть настроено из программы управления Microsoft Exchange Server Administrator. Журнал работы Faxination можно вести в Public Folder или в любой базе данных, например MS Access или MS SQL Server. Это позволяет быстро составлять любые отчеты о работе с факсами.

Faxination интегрируется с клиентом Microsoft Exchange и Microsoft Outlook и не требует отдельного клиентского ПО. Все функции работы с сообщениями являются расширением возможностей клиента Exchange.

Рассылка факсов с использованием Faxination не отличается от рассылки обычных сообщений электронной почты.

При работе с факсами поддерживаются следующие функции:

единая адресная книга: выбор номера факса из единой адресной книги MS Exchange, создание смешанных (e-mail и факс) списков рассылки; OLE drag & drop: автоматическая конвертация OLE-объектов (например, графиков); конвертация документов MS Office: чтобы отправить по факсу документ из MS Office, достаточно присоединить его к сообщению в клиенте Exchange. Faxination автоматически выполнит конвертацию и рассылку документов; выбор титульного листа: титульный лист может быть задан системным администратором или выбран пользователем; получение факсов непосредственно в почтовый ящик пользователя: Faxination поддерживает индивидуальные пользовательские номера, с помощью которых можно передать факс-сообщение в личный почтовый ящик клиента с обыкновенного факс-аппарата.


Faxination обеспечивает высокий уровень экономии и контроля за использованием средств при передаче факсов. Faxination позволяет:

отправлять факсы в определенное время суток в зависимости от приоритета и номера факса адресата; отправлять факсы через Internet на региональные факс-серверы Faxination, с последующей рассылкой по локальным тарифам, или на серверы провайдеров, обеспечивающих поддержку службы факсимильной связи (FaxSav, Graphnet); за одно соединение отправлять несколько факсов с одним номером назначения; устанавливать пользователю ограничения на отправку факсов по номеру назначения.



РИСУНОК 1. Архитектура системы на базе Faxination.

Faxination for MS Exchange Server разработан, исходя из концепции True Integrated Messaging, в соответствии с которой пользователю предоставляется возможность работы с разнородной информацией из одного приложения. Набор дополнительных модулей обеспечивает возможность работы с телексами, сообщениями SMS, SITA в рамках единого клиентского приложения MS Outlook. Отдельно реализована интеграция с бизнес-приложениями SAP, с SMTP-совместимыми почтовыми системами (Lotus Notes/Domino, Netscape Mail). Существует возможность интеграции с сетевыми сканерами, например HP Digital Sender 9100.

У Faxination имеются стандартная и корпоративная версии. Стандартная версия поддерживает только две линии и позволяет работать только с факс-сообщениями. В базовый комплект входит пять пользовательских лицензий.

Рекомендации. Faxination компании Fenestrae (http://www.fenestrae.com) целесообразнее использовать в компаниях, заинтересованных в тесной интеграции факс-службы с MS Exchange при минимальных затратах на администрирование и обучение пользователей.


Физическая реализация архитектуры


На рис. 5 приведена схема, представляющая системные платы, разработанные группой Bull и используемые для физической реализации архитектуры PowerScale.

Рисунок 5.
Физическая реализация PowerScale.

Многопроцессорная плата. Многопроцессорная материнская плата используется также в качестве монтажной панели для установки модулей ЦП, модулей основной памяти и одной платы в/в (IOD).

Модуль ЦП (дочерняя процессорная плата). Каждый модуль ЦП, построенный на базе PowerPC 601/604, включает два микропроцессора и связанные с ними кэши. Имеется возможность модернизации системы, построенной на базе процессоров601, путем установки модулей ЦП с процессорами 604. Смешанные конфигурации601/604 не поддерживаются.

Дочерняя плата ввода/вывода: (IOD). IOD работает в качестве моста между шинами MCA и комплексом ЦП и памяти. Поддерживаются 2 канала MCA со скоростью передачи 160 Мбайт/с каждый. Хотя поставляемая сегодня подсистема в/в базируется на технологии MCA, это не является принципиальным элементом архитектуры PowerScale . проводятся работы по реализации нескольких альтернативных шин ввода/вывода, например, PCI.

Платы памяти. Каждая плата памяти состоит из четного числа банков. Максимальное число банков равно 16. Объем памяти на каждой плате может быть 64, 256или 512 Мбайт. Коммутатор данных (DCB) интегрирован в нескольких СБИС (4х16бит) и функционально соединяет магистраль данных MPB_SysBus с подсистемой памяти, модулями ЦП и платой в/в. Ширина магистрали данных DCB на уровне массива памяти составляет 256 + 32 бит, а ширина магистрали данных для каждого порта ЦП и порта в/в равна 64 + 8 бит. Операции DCB управляются контроллером системной памяти (SMC) с помощью командной шины, обеспечивающей необходимую коммутацию устройств.



Фокус с платой Evergreen


Новый тип продуктов для модернизации ЦП предлагает компания Evergreen. Ее изделие AcceleraPCI представляет собой PCI-плату, позволяющую использовать процессор Celeron (без дополнительных приспособлений кристаллы Celeron устанавливать в старые компьютеры нельзя). Плата также содержит собственную память типа SDRAM. Вам нужно лишь установить AcceleraPCI в любой свободный разъем PCI - и расположенные на этой плате процессор и ОЗУ заменят собой те, что применялись в системе ранее (которые, однако, хоть и в отключенном состоянии, но должны оставаться в компьютере).

Если вы заинтересовались изделием AcceleraPCI, перепишите с Web-узла фирмы Evergreen и запустите тестовую программу, которая определит, будет ли плата работать с вашим ПК. Если в системе имеется шина PCI, то есть вероятность, что будет, однако фирма Evergreen не рекомендует ставить эту плату в машины классов 486 и Pentium II.

Мы протестировали плату AcceleraPCI 433/64, оснащенную 433-МГц процессором Celeron и 64-Мбайт ОЗУ (поставляются и другие конфигурации). Такая модернизация несколько проще, чем традиционная замена ЦП, поскольку не нужно вынимать микросхему из процессорного гнезда и вновь ее туда устанавливать. На обновление и запуск системы у нас ушло не более четверти часа, а производительность ПК в результате возросла весьма существенно: в контрольных задачах PC WorldBench 98 наша тестовая модель (компании Hewlett-Packard) продемонстрировала результат 158 баллов, т. е. была вдвое быстрее, чем в исходной конфигурации с 16-Мбайт ОЗУ, и на 76% быстрее, чем с 64-Мбайт ОЗУ, но без обновления процессора.

Тем не менее модернизированный ПК оказался на 19% медленнее обычного компьютера на базе Celeron-433. Это объясняется тем, что в новых системах помимо процессора используются и другие повышающие быстродействие компоненты, которых лишены старые ПК, например, новые типы памяти, скоростные жесткие диски и мощные графические подсистемы.

При испытании AcceleraPCI мы столкнулись с одной несколько необычной ошибкой, вероятно, связанной с графическим набором микросхем или с драйвером: модернизированная система отказывалась полностью завершать сеанс Windows. При выборе пункта "Выключить компьютер" в меню "Завершение работы Windows" машина перезагружалась.



Гадание на кофейной гуще


Надо полагать, компания Creative Labs переживает крайне непростую ситуацию. С одной стороны, ведущий производитель разработал специализированный чипсет, способный "озвучить" бытовой персональный компьютер на уровне, недоступном еще никому и никогда. С другой - вряд ли продукты на основе X-Fi будут лидерами продаж: рынок дискретного звука, к великому сожалению, мельчает с каждым годом, и читатели не могли не заметить плавного "фокусирования" интереса Creative Labs на совершенно иных сферах цифрового звука (имеются в виду портативные медиапроигрыватели и акустические системы). Нет сомнений, что звуковые карты на базе X-Fi сыграют значительную роль в бизнесе компании, так как, согласно заявлениям производителя и имеющимся сведениям, X-Fi станет действительно выдающимся чипом. Сложность лишь в том, что компании потребуется приложить колоссальные усилия, чтобы четко определить приложения, способные подтолкнуть энтузиастов к апгрейду. Ведь на самом деле, нынешняя Audigy 2 ZS - очень и очень неплохая карта, особенно если не обращать внимания на количество транзисторов и прочие подробности, а просто слушать качественную музыку, играть в игры и смотреть DVD-фильмы. Казалось бы, чего еще желать? Вот на этот вопрос предстоит ответить как самой Creative Labs, так и многочисленным почитателям ее продукции.

Все-таки приятно сознавать, что, несмотря на засилье интегрированного дешевого звука, дело "саунд-бластера" живет и процветает.



Гибкость: Адаптивность к изменениям рабочих нагрузок


Одним из определяющих элементов гибкости является возможность системы адаптироваться к изменениям рабочих нагрузок, которые имеют место при изменениях деловых задач или требований приложений. Для обеспечения адаптивности к изменениям рабочих нагрузок система должна обладать способностью изменять сразу несколько своих параметров.

Обладая более чем 25-летним опытом работы с клиентами, использующими большие системы для предприятий (large enterprise systems), компания Data General упрочила свое лидерство в области эффективно окупающихся модульных компьютерных систем, представив AV 25000 - свой сервер третьего поколения c архитектурой памяти ccNUMA. Благодаря партнерству с компанией Intel и ее энергичной схеме развития процессорных технологий, компания Data General является первым поставщиком, предлагающим 4-64-х процессорные системы, базирующиеся на самых последних процессорах Intel Pentium II Xeon.

Архитектура памяти cсNUMA (cache coherent Non-Uniform Memory Architecture) позволяет создавать от средних до очень больших систем класса предприятий, которые эффективно окупаются и не содержат компромиссных решений. В отличие от традиционных систем SMP (Симметричной Многопроцессорной Обработки) с высокой производительностью шины (big-bus), системы с архитектурой памяти ccNUMA могут быть сконфигурированы без компромиссных решений, т.е. с одновременным использованием максимального количества процессоров, средств ввода-вывода и максимального объема памяти. Такая возможность обеспечивает наилучшую производительность для всех типов приложений - как для приложений, предъявляющих большие требования к возможностям ввода-вывода (например приложения поддержки принятия решений и хранилища данных), так и для приложений, требовательных к процессору и памяти (как например приложения обработки транзакций в режиме online). Другое преимущество использования архитектуры ccNUMA заключается в том, что те приложения, которые могут быть масштабированы в системах SMP, предоставляют такие же возможности и при использовании для работы с ними сервера AV 25000, при этом никакой модификации этих приложений не требуется.

Сервер AV 25000 предоставляет возможности модульного масштабирования (т.е. модульного увеличения/уменьшения количества процессоров, объема памяти и средств ввода/вывода), что позволяет пользователям последовательно наращивать свои системы, просто добавляя блоки SBB, базирующиеся на новейшем продукте компании Intel - технологии SHV (Standard High Volume). AV25000 поддерживает до 64 процессоров, 64 GB памяти и более чем 100TB оптических средств хранения данных CLARiiON Fibre Channel под управлением одной отдельной копии операционной системы DG/UX. Дальнейшего увеличения производительности и масштабируемости можно добиться полностью подключив к системе все средства ввода-вывода, что позволит каждому из процессоров напрямую обращаться к любому диску.



Гибкость: Адаптивность к Новым Приложениям


Разбиение на несколько разделов, работающих под управлением операционной системы DG/UX или смешанное разбиение на разделы, работающие под управлением DG/UX и NT

Другой ключевой составляющей гибкости является возможность адаптировать новые технологии и приложения к конкретной вычислительной среде. Среда AVFlex позволяет макетировать и тестировать новые приложения не изменяя конфигурации аппаратных средств и избегая нежелательного влияния на производственную систему. Например, новые приложения могут быть развернуты и протестированы в каком-то разделе, а затем уже интегрированы в производственную среду.

Такие гибкие возможности применимы не только для чистых сред UNIX c множественным разбиением под DG/UX - среда AVFlex может также использоваться для интеграции новых NT-приложений в эти системы. Это особенно важно, так как по прогнозам аналитиков к 2000 году более 90% всех предприятий будут использовать как UNIX, так и Windows NT. Такой подход предоставляет пользователям наиболее эффективно окупающийся способ интегрирования лучших приложений от Data General, Microsoft и других основных поставщиков решений. Сервер AViiON AV 25000, являющийся компонентой среды AVFlex, может поддерживать несколько разделов под DG/UX и NT в рамках одной системы.

Позволяя внедрять решения под NT, среда AVFlex на основе нескольких пакетов прикладных программ обеспечивает высокий уровень взаимодействия между операционной системой DG/UX и Microsoft Windows NT Server, что позволяет пользователям осуществлять доступ к важнейшей информации для принятия деловых решений в реальном времени. С помощью управляющей консоли M3W среда AVFlex также удовлетворяет одну из основных потребностей - упрощение управления системами с разнородными компонентами.



Готов ли ваш ПК встретить год?


Итак, это последнее предупреждение о проблеме 2000 года, по крайней мере, сделанное нами. Предположим, что конец света все же не наступит и электричество 1 января не пропадет. Тогда вам нужно подготовить свой ПК к встрече Нового года. В основном это сводится к выяснению, сможет ли BIOS (низкоуровневая программа, "зашитая" в ПЗУ на системной плате) в полночь 31 декабря перевести дату на 2000 год (а не на 1900 или 1980).

Прежде всего проверьте, решена ли в BIOS вашего ПК так называемая проблема Y2K (чем старше система, тем это менее вероятно). Корпорация Symantec предлагает бесплатную утилиту Norton 2000 Bios Test and Fix, которую вы можете переписать по адресу www.symantec.com/sabu/n2000/n2000_corp/features.html. Она подскажет, не произойдет ли с вашим ПК неприятностей в первый день наступившего года, и даже предложит разобраться с некоторыми из них.

Если ваша система не справилась с таким тестом, зайдите на Web-узел производителя системной платы и поищите обновление BIOS (помимо решения проблемы Y2K в новой версии BIOS может быть добавлена поддержка жестких дисков большого объема и устранены ошибки). Обновление BIOS обычно производится копированием необходимых файлов на загрузочную дискету и загрузкой с нее системы. Прежде чем приступать к модернизации, внимательно прочитайте сопутствующие инструкции, так как в случае неудачи ПК может полностью потерять работоспособность, а чтобы его "оживить", придется покупать новую правильно запрограммированную микросхему ПЗУ.

Некоторые компьютеры (особенно старых образцов) не допускают обновления BIOS программным путем. Также возможен вариант, когда выпустившая системную плату фирма прекратила свое существование. В таких случаях вы будете вынуждены заменить микросхему с BIOS новой от одного из сторонних производителей, например компании Unicore (www.unicore.com). Как правило, это стоит 50-75 долл.

И наконец, надо выяснить, безопасны ли программы в вашем ПК. Для получения корректировок в Windows 95/98, связанных с проблемой Y2K, зайдите на узел Windows Update (www.windowsupdate.microsoft.com). Проверьте другие программы на Web-узлах их поставщиков (особенно финансовые пакеты и другое ПО, зависящее от дат), чтобы узнать, не появились ли более новые версии.



Графическое устройство (GRU)


В процессоре UltraSPARC-1 реализован исчерпывающий набор графических команд, которые обеспечивают аппаратную поддержку высокоскоростной обработки плоских и трехмерных изображений, а также обработку видеоданных. GRU выполняет операции сложения, сравнения и логические операции над 16-битовыми и 32-битовымицелыми числами, а также операции умножения над 8-битовыми и 16-битовымицелыми. В GRU поддерживаются однотактные операции определения расстояния между пикселями, операции выравнивания данных, операции упаковки и слияния.



Характеристики рабочей нагрузки (тесты TPC)


В компьютерной индустрии термин " транзакция " (transaction)может означать почти любой вид взаимодействия или обмена информацией. Однако в мире бизнеса " транзакция " имеет вполне определенный смысл: коммерческий обмен товарами, услугами или деньгами. В настоящее время практически все бизнес-транзакции выполняются с помощью компьютеров. Наиболее характерными примерами систем обработки транзакций являются системы управления учетом, системы резервирования авиабилетов и банковские системы. Таким образом, необходимость стандартов и тестовых пакетов для оценки таких систем все больше усиливается. Чтобы решить эти проблемы, в 1988 году была создана организация TPC (Transaction Processing Performance Council), основной задачей которой является точное определение тестовых пакетов для оценки систем обработки транзакций и баз данных, а также для распространения объективных, проверяемых данных в промышленности.

TPC публикует спецификации тестовых пакетов, которые регулируют вопросы, связанные с работой тестов. Эти спецификации гарантируют, что покупатели имеют объективные значения данных для сравнения производительности различных вычислительных систем. Хотя реализация спецификаций оценочных тестов оставлена на усмотрение индивидуальных спонсоров тестов, сами спонсоры, объявляя результаты TPC, должны представить TPC детальные отчеты, документирующие соответствие всем спецификациям. Эти отчеты, в частности, включают конфигурацию системы, методику калькуляции цены, диаграммы значений производительности и документацию, показывающую, что тест соответствует требованиям атомарности, согласованности, изолированности и долговечности (ACID atomicity, consistency, isolation, and durability), которые гарантируют, что все транзакции из оценочного теста обрабатываются должным образом.

TPC определяет и управляет форматом нескольких тестов для оценки производительности OLTP (On-Line Transaction Processing), включая тесты TPC-A, TPC-B, TPC-C,TPC-D и TPC-E. Хотя упомянутые тесты TPC не являются непосредственно тестами для оценки производительности баз данных, системы реляционных баз данных- ключевые компоненты любой системы обработки транзакций.


Следует отметить, что, как и любой другой тест, ни один тест TPC не может измерить производительность системы, которая применима для любой возможной среды обработки транзакций, но эти тесты действительно могут помочь пользователю справедливо сравнивать похожие системы. Однако, когда пользователь делает покупку или планирует решение о покупке, он должен понимать, что никакой тест не может заменить его конкретную прикладную задачу.

Охарактеризовать нагрузку, генерируемую приложением базы данных, невозможно без детальной информации о том, что же в действительности приложение делает. Даже имея подобные сведения, приходится делать множество предположений о том, как сама СУБД будет обращаться к данным, насколько эффективным может оказаться дисковый кэш СУБД при выполнении определенных транзакций, или даже о том, какова может быть смесь транзакций.

На сегодня в промышленности приняты следующие типы характеристик нагрузки, генерируемой приложением базы данных: "легкая", "средняя","тяжелая" и "очень тяжелая". Категория "легкая" приравнивается к рабочим нагрузкам, которые доминируют в операциях, подобным транзакциям дебет/кредит, определенным в оценочных тестах TPC-A. Нагрузками "средней" тяжести считаются транзакции, определенные стандартом теста TPC-C. Тяжелыми рабочими нагрузками считаются нагрузки, которые ассоциируются с очень большими приложениями, такими как Oracle*Financials. Такие нагрузки по крайней мере в 5-10 раз тяжелее, чем принятые в тесте TCP-A.

Основным классом приложений, которые попадают в категорию "оченьтяжелой" нагрузки, являются системы поддержки принятия решений. Из-за очень больших различий в характере самих запросов к системе поддержки принятия решений, администраторы баз данных или самой СУБД сталкиваются с серьезными проблемами по обеспечению широкомасштабной оптимизации. Запросы к системе поддержки принятия решений часто приводят к формированию существенно большего числа запросов к нижележащей системе из-за необходимости выполнения многонаправленных соединений, агрегирования, сортировки и т.п. Тест TPC-D был специально разработан для оценки работы приложений поддержки принятия решений.

Подробно о структуре тестов TPC см. [4].


Hardware - разное


Матрица. Эволюция


Денис Степанцов

Доступные сетевые принтеры


Андрей Шуклин, "Экспресс Электроника"

Твердотельные датчики изображения

Сергей Ярошенко, "IT News"

О лидерах рынка ИБП и новых концепциях

Ярослав Ницак, "Экспресс Электроника"

Офисный форм-фактор

Андрей Шуклин, "Экспресс Электроника"

Мобильная зарядка... Или подзарядочный F.A.Q.

Что нужно знать о домашнем кинотеатре


Игорь Борисов

Организация качественного звука на компьютере


Игорь Борисов

Собираем музыкально-кинотеатральный компьютер (системный блок)


Игорь Борисов

KVM-технологии для малых и средних компаний

Екатерина Ромашова, "Экспресс Электроника"

Калифорнийское яблоко оказалось «антоновкой»

Евгений Патий, "Экспресс Электроника"

Спутниковые навигационные системы GPS и ГЛОНАСС

Сергей Ярошенко, "IT News"

Рынок 3D-акселераторов: закат или трансформация?

Александр Лось, "Экспресс Электроника"

Управление электропитанием: когда вы последний раз заходили в серверную?

Андрей Шуклин, "Экспресс Электроника"

Климат-контроль для центра обработки данных

Валентин Седых, Ярослав Ницак, "Экспресс-электроника"

Radeon X1000: видеокарты нового поколения

Андрей Душко, "Комиздат"

Карточные метаморфозы - переделываем Radeon X800 GTO2 в X850 XT

Дмитрий Гриненко, "Комиздат"

Тестирование ATX-корпусов

Константин Кузнецов, Компьютеры+Программы

USB: вчера, сегодня и завтра

Арсений Чеботарев, Компьютеры+Программы

Медиасервер - закрома цифрового дома

Евгений Патий, "Экспресс-электроника", #07/2005

HTPC: сердце цифрового дома

Евгений Патий, "Экспресс-электроника", #07/2005

Медиацентр своими руками

О barebone-системах

Николай Печерица, "Экспресс-электроника"

Архитектура MP3-плееров

Евгений Рудометов, IT News

Точность - вежливость серверов

О протоколах поддержки точного времени

Евгений Патий, IT News

X-Fi: имеющий уши да услышит



Евгений Патий, IT News

AC/DC или ИБП для телекома

Ярослав Ницак

"Экспресс-электроника", #01-02/2005

Видеокарты среднего уровня для PCI Express

Сергей Антончук, Издательский Дом "КОМИЗДАТ"

Разделяй и властвуй

О KVM-переключателях

Евгений Патий, «Экспресс-Электроника» #3/2005

KVM-переключатели - эффективное сетевое решение

Екатерина Ромашова, Транс-Америтек

Mac на процессоре Intel: по следам сенсации

Владимир Новиков aka VN_MAClover

Mactel, или блеск и нищета бенчмарок

Владимир Новиков aka VN_MAClover

И все-таки: почему Mactel?

Владимир Новиков aka VN_MAClover

Выбираем сервер печати

Николай Ткаченко, "Комиздат"

Выбрать корпус - нет ничего проще?

Сергей Грицачук, Компьютеры+Программы (издательский дом "Комиздат")

От гигапиксела до двух

Тестирование видеокарт среднего сегмента

Андрей Душко, Издательский Дом "КОМИЗДАТ"

TV-тюнинг для компьютера

Алексей Хабаров, "Комиздат"

Новые графические супер-карты от ATI и NVidia

Издательский Дом "КОМИЗДАТ"

Добавляем в компьютер USB

Юрий Гудзь, "Комиздат"

Разгон... Sound Blaster'а

Крис Касперски

Тихий ПК: несколько простых способов избавиться от компьютерного шума

Издательский Дом "КОМИЗДАТ"

Рынок проекционных систем: ждем перемен

Олеся Нагорная, журнал "IT Manager" #15(3)/2004

Не просто компьютер

Рольф Ричардсон, «Экспресс-Электроника» , # 4/2004

Обуздать хаос

Владимир Оснач, "Комиздат"

Видимо на видео, или Куда смотрят наши глаза?

Сергей Грицачук, Издательский Дом "КОМИЗДАТ"

Покопаемся в SETUP BIOS

Николай Ткаченко, "Комиздат"

Механика "цифры"

Александр Лось, «Экспресс-Электроника» , #4/2004

О роли "кубизма" в современном barebone-строении

Николай Ткаченко, Издательский Дом "КОМИЗДАТ"

С видеокамеры на DVD-диск

Елена Полонская, Комиздат

Работа с последовательными портами

Юрий Горский, Издательский Дом "Комиздат"



Как подружить Olympus c ПК?

Евгений Высокович,Издательский Дом "КОМИЗДАТ"

Обратная сторона луны, или Альтернативные способы соединения компьютеров

Крис Касперски

ПК "с картинки" (обзор настольных систем brad-name)

Рoльф Ричардсон, #9/2003

ИБП для корпоративного пользователя
Никита Расторгуев, &laquoЭкспресс-Электроника&raquo , # 9/2003

Сканируя пространство
Рольф Ричардсон, &laquoЭкспресс-Электроника&raquo, #10/2003

Нужна ли ассоциативная память?




Хронология развития магнитных лент


1928 - Изобретение магнитофона
1929 - Изобретение записи на стальную струну
1951 - Магнитофон на стальной струне подключен к UNIVAC I
1953 - Магнитофон на пластиковой ленте подключен к IBM 701
1972 - Компания 3M предложила картридж QIC
1987 - Sony и Exabyte предложили использовать стандарт 8mm для записи данных
1988 - Дебютировала технология Scalable Linear Recording компании Tandberg Data
1989 - Sony и HP представили формат Digital Data Storage
1991 - Первое устройство DLT TF86 CompacTape cartridge
1992 - Представлен стандарт ANSI X3.203-1992 DDS Recorded Format
1994 - Sony выпустила ленту AIT-1
1994 - Quantum становится владельцем торговой марки DLTtape
1995 - IBM представила первое поколение технологии 3590 tape
1996 - Exabyte анонсировала стандарт Mammoth
1997 - Digital Data Storage Manufacturers Group обнародовала стандарт DDS-4
1997 - Компании Hewlett-Packard, IBM и Seagate выступили с инициативой LTO
1997 - Представлены форматы Travan NS, NS8 и TR-4
1998 - Представлен формат Travan TR-5
1999 - Объявлена технология SLR100 Tandberg Data
1999 - Компания Ecrix предложила формат VXA
1999 - Компания OnStream предложила формат Advanced Digital Recording
2000 - Exabyte представила стандарт Mammoth-2
2001 - Exabyte приобрела компанию Ecrix с ее продуктом VXA
2001 - Анонсирован формат TR-6
2001 - Sony объявила стандарт S-AIT
2002 - Exabyte представила стандарт Mammoth-3
2002 - Seagate и Imation выпустили версию Travan 40
2002 - Выпущены Super DLTtape SDLT 220 и SDLT 320
2002 - Состоялось объявление LTO Generation 2 Ultrium



I. Предмет и условия исследования


Я много путешествую и по возвращении, друзья всегда просят рассказать о увиденном, о том, что происходило. Когда-то я посылал по почте письма из городов, которые проезжал, но послать письмо я мог одному-двум адресатам. Как-то мне пришла в голову идея: "А не сделать ли рассылку по электронной почте? Все необходимые для этого компоненты у меня есть. И все знакомые смогут получить от меня известия." Собираясь в путешествие на Эльбрус, я решил осуществить эту идею. Что же из этого вышло?

Связка состояла из КПК (карманный персональный компьютер) Palm Vx, мобильного телефона Siemens S35 и GPS навигатора eTrex фирмы Garmin, который я одолжил у друзей. Первое, что меня интересовало, нужен ли мне в дальнейшем GPS или достаточно карты и компаса. Второе, что хотелось сделать - это поразвлечь друзей электронными письмами, написанными практически он-лайн. А в-третьих, проверить работу данного "трио" в "боевых" условиях.

Маршрут проходил на высотах от 2000 до 5600 метров над уровнем моря. Температурный режим от -20 до +20`C. Осадков практически не было, но было палящее солнце (на таких высотах сильное излучение) и иногда шел снег.

GPS и Palm физически связаны не были (хотя это возможно с помощью кабеля), я вводил данные вручную. Из Palm по инфракрасному порту я пересылал данные в сотовый телефон, который работал, как обычный модем. Звонок осуществлялся на номер одного из Московских интернет-прорвайдеров. Ну а дальше электронные письма разлетались адресатам по всему миру.

Перед выездом в горы связка была испытана во время выхода по Подмосковью. Однако условия Подмосковья и длительное пребывание в горном районе совсем разные вещи. Как поведет себя "мобильное трио" в горах ? В данной статье я постараюсь рассказать вам об особеностях работы мобильных устройств в горах.



ИБП для корпоративного пользователя


Никита Расторгуев

«Экспресс-Электроника» #9/2003

Сегодня выбрать настольное решение по защите электропитания компьютерной системы может, наверное, любой пользователь - настолько просто и понятно все расписано в проспектах производителей ИБП. Однако как только дело доходит до выбора системы для обеспечения стабильного энергоснабжения хотя бы небольшого офиса, вопрос выбора оборудования приобретает сложный характер.

В самом деле, остановить свой выбор на покупке нескольких настольных ИБП для каждого персонального компьютера или приобрести мощную многофункциональную систему, способную обеспечить надежную работу всей группы пользователей, дилемма, которая встает перед IT-специалистами всякий раз, когда приходится создавать систему безопасного электроснабжения предприятия. В ряде случаев выбор нескольких ИБП представляется более оптимальным, в виду простоты реализации, решением, однако новое поколение комплексных систем от ведущих производителей, заставляет все чаще обращать внимание именно на последние. Мы попробуем разобраться в предлагаемых сегодня решениях корпоративного уровня, взяв за основу диапазон мощностей от 1 до 10 кВА. Более мощные решения сложны и требуют профессиональных навыков и специализированного оборудования при монтаже.

Для начала обратимся к состоянию рынка ИБП. По оценке VDC, в 2001 году мировой объем продаж ИБП составил $4,56 млрд. В этом году рост замедлился за счет общего спада в IT-индустрии, а к 2006 году главным образом благодаря популярности интернет-решений этот показатель достигнет $5,21 млрд.

Для обеспечения бесперебойного питания десяти и более рабочих станций, а также небольших вычислительных центров и серверных комнат, сегодня на рынке предлагается широкий спектр решений, выбор которых зависит не только от финансовых возможностей покупателя, но и от критичности защищаемой информации и чувствительности электроприборов к сбоям в энергоснабжении. По этой причине определенного для данного сегмента диапазона мощности устройств и предпочтений в технологиях нет, однако предложенный ранее диапазон мощностей до 10 кВА должен быть адекватным.
Что касается технологий, то, как правило, в этом сегменте встречаются системы на базе архитектур line-interactive или более дорогие online-решения. Кроме того, активно растет интерес к централизованным системам управления энергией, постепенно вытесняющим распределенные схемы, внедрявшиеся поэтапно по мере появления нового оборудования. Основные потребители такого оборудования - небольшие компании, департаменты или рабочие группы, для которых отключение электропитания или его аномалии могут обернуться настоящей катастрофой. В то же время, особенно на российском рынке, где "каждый сам себе энергетик" широко распространяется практика тендерных предложений "коробочных" ИБП.

Решения для среднего рыночного сегмента нередко поставляются с различными аксессуарами, позволяющими всесторонне контролировать процесс энергозащиты и управлять им. Устойчивым спросом на этом рынке пользуются устройства Powerware серий 31хх, 51xx и 91xx, APC класса Smart-UPS и Symmetra, Liebert UPStation серии GXT и Nfinity, а также продукты производства компании Powercom серий Smart King, Ultimate и Vanguard. Даже если в процессе многолетнего роста организации каждое рабочее место оснащается персональными ИБП, то при переходе на централизованную защиту эти устройства сохраняются и служат дополнительным барьером в упреждении энергосбоев.


Идея


Еще в конце 40-х годов в Centralab были разработаны основные принципы миниатюризации и созданы ламповые толстопленочные гибридные схемы. Схемы выполнялись на единой подложке, а зоны контактов или сопротивления получались простым нанесением на подложку серебряной или типографской угольной краски. Когда же стала развиваться технология германиевых сплавных транзисторов, в Centralab было предложено монтировать бескорпусные приборы в пластиковую или керамическую оболочку, чем достигалась изоляция транзистора от окружающей среды. На этой основе можно было уже создавать транзисторные гибридные схемы, "печатные платы". Но, по сути дела, это был прообраз современного решения проблемы корпусирования и выводов интегральной схемы.

К середине 50-х годов Texas Instruments имела все возможности для производства дешевых полупроводниковых материалов. Но если транзисторы или диоды изготовлялись из кремния, то резисторы в TI предпочитали делать из нитрида титана, а распределенные емкости - из тефлона. Неудивительно, что многие тогда полагали, что при накопленном опыте создания гибридных схем нет проблем в сборке этих элементов, изготовленных по отдельности. А если удастся изготовить все элементы одинакового размера и формы и тем самым автоматизировать процесс сборки, то стоимость схемы будет значительно снижена. Этот подход очень напоминает предложенный Генри Фордом процесс конвейерной сборки автомашин.

Таким образом, в основе доминировавших тогда схемных решений лежали различные материалы и технологии их изготовления. Но англичанином Джеффом Даммером из Royal Radar Establishment в 1951 году было выдвинуто предположение о создании электроники в виде единого блока при помощи полупроводниковых слоев одного и того же материала, работающих как усилитель, резистор, емкость и соединенных вырезанными в каждом слое контактными площадками. Как это сделать практически, Даммер не указал.

Собственно, отдельные резисторы и емкости можно было делать из того же кремния, однако это было бы довольно дорогое производство. Кроме того, кремниевые резисторы и емкости были бы менее надежны, чем компоненты, изготовленные по стандартным технологиям и из привычных материалов, тех же нитрида титана или тефлона. Но так как все же имелась принципиальная возможность изготовить все компоненты из одного материала, то следовало бы подумать об их соответствующем электрическом соединении в одном образце.

24 июля 1958 года Килби сформулировал в лабораторном журнале концепцию, получившую название Идеи монолит (Monolithic Idea), в которой было указано, что Заслуга Килби - в практической реализации идеи Даммера.



II. Palm Vx


Программное обеспечение состояло из следующих частей:

ОС - Palm OS 4.1 Навигация - Atlas 5.05i (http://www.gpspilot.com) Базы данных - ThinkDB 2.5.0 (http://www.thinkingbytes.com) Почта и передача данных - MultiMailPro 3.1 (http://www.actualsoft.com) Прочее - iSilo, Calc, MemoPad, Hi-Note, Quicksheet

Опишу особенности некоторых программ.

Программа Atlas позволяет работать с отсканированной картой: калибровать ее, вводить новые координаты, получаемые на местности, считывать параметры с GPS навигатора, отмечать текущее положение на карте. Поскольку я не имел кабеля, соединяющего GPS и Palm, то меня интересовал ручной ввод координат, что программа позволяет весьма легко осуществить. Надо заметить, что тут не надо пересчитывать координаты в разные системы, как если бы мы работали с бумажным носителем (в отечественном картопроизводстве используется в основном система координат Пулково 42 года, и чтобы GPS выдавал координаты в нужной системе надо сделать некоторые настройки, которые понятны отнюдь не сразу). Достаточно ввести текущие градусы, минуты и секунды (с точностью до тысячной, хотя GPS выдает точность до десятой секунды). По 2-м снятым с местности точкам можно привязать карту. Другой, более удобной навигационной программы для Palm я не нашел. Тут надо отметить, что при конвертации в формат Palm, 500-метровка восточной части Приэльбрусья (от В.Баксана до Эльбруса, включая долину реки Адыл-Су) занимает 1,8 Мбайта памяти (16 градаций серого). При 4-6 свободных Мбайтах памяти у Vx, это вполне ощутимый размер. Пришлось пожертвовать ненужным на время похода софтом. Есть смысл подумать о покупке 505 серии с цветным экраном (хотя 16-ти градаций серого мне вполне хватает), где возможно расширить память с помощью покупки дополнительных карт памяти.

База данных ThinkDB. В этой программе я вел/хранил отчет похода, а также базу данных по снимаемым пленкам и кадрам. Возможность создания связанных таблиц и фильтров сильно облегчает жизнь, а по окончании похода очень удобно писать отчет. Также всегда под рукой архив отснятых пленок и кадров с описанием. Тем, кто работает с БД (базой данных), нет смысла объяснять достоинства данной БД, а тем, кто не работает - проще хранить свои данные в другом софте, более простом для понимания (если возникнет интерес, то готов переслать сконструированную базу для ведения архива фотографий и для архива путевых заметок с комментариями).

MultiMailPro. Программа для работы с почтовыми серверами. Будучи в Москве и являясь абонентом МТС, я пользовался услугой "мобильный интернет" (0885), однако при использовании роуминга не все операторы сотовой связи поддерживают данную услугу. Поэтому я использовал сотовый телефон как модем, звоня на телефон провайдера (+7095 и тд) и передавая данные, как если бы я делал это по обычному модему.



III. Связка в теории


Теперь непосредственно о работе КПК, сотового телефона и GPS в связке. Как было уже сказано, в Palm я вел дневник путешествия, писал письма, хранил путевые данные. Также там было залито: пара книг, игрушки, контактная информация, которая мне могла понадобиться в путешествии, раскладка продуктов, вес снаряжения и прочая мелочь. Поскольку GPS принадлежал не мне, то связать кабелем его с Palm у меня не было возможности, хотя такая возможность существует и ее надо использовать. С GPS я считывал текущие координаты и высоту, вводя их в Palm вручную. Остальная информация меня не интересовала (хранение маршрута, возврат по маршруту в исходную точку, средняя скорость движения, время восхода и заката и прочее). Далее, готовые и обработанные результаты с Palm по инфракрасному порту передавались на сотовый телефон, который играл роль модема.

Казалось очень удобным отправлять письма практически сразу, пока все впечатления свежи и данные не устарели. Тем более, что все три устройства помещаются в один карман. Но есть свои особенности. Самое первое, о чем приходится задуматься - это вопрос питания.

GPS использует 2 пальчиковые батарейки. Согласно инструкции их хватает на 20 часов непрерывной работы. Таким образом, если работать непрерывно, то 14 дней похода обходится в 28 батареек. Этот вариант сразу отметаем за абсурдностью. Непрерывно GPS должен работать лишь в тех местах, где нам нужно будет вернуться назад по проложенному ранее треку. Это единичные случаи, на весь поход расчитаем, что по 10 часов подряд GPS будет использоваться максимум 2-3 раза, все остальное время - снятие точечных показаний, то есть включили, замерили, записали, выключили. Получаем, что понадобится 2-3 комплекта батареек. Свежий комплект вставим в сам прибор и 2 запасных комплекта с собой (подчеркну, что это только теоретический расчет, практика описана ниже).

Palm питается от Li-Io аккумулятора, поэтому встает вопрос с подзарядкой. Блок питания в горы тащить смысла никакого нет. В природе существует зарядное устройство от 9-ти вольтовой батарейки. Я ее покупал через друзей в Америке (http://talestuff.com/). Известно, что на морозе Li-Io разряжается быстрее, чем при обычных температурах. На сколько хватит заряда не понятно. Походы по Подмосковью показали, что за один день Palm разряжается со 100% до 40-35% (при условии работы в течении 2-х часов и температуре +5 -5`С). Однако учитывая нелинейность разрядки/зарядки - надо полагать, что заряда хватит на 3-4 дня. Таким образом, берем 3 батарейки для Palm.

Siemens S35 так же использует Li-Io аккумулятор, но от батареек зарядки для него нет (я не нашел, хотя полагаю, что можно сделать своими руками). Работать он будет ровно на передачу писем, плюс несколько звонков. Отключаю все будильники и беру его полностью заряженный, хотя можно подстраховаться 2-м аккумулятором. Надо также заметить, что как и Palm, телефон имеет инфракрасный порт, что очень важно. Если такового в телефоне нет, тогда следует подумать о кабеле, соединяющим оба устройства.



Инициализация


Сервисные процессоры несут полную ответственность за инициализацию системы.

Во время начальной установки системы они прежде всего создают полный перечень

доступных в стойке ресурсов, используя шины обслуживания и перепрограммируемые

ПЗУ, которые хранят информацию о конфигурации всех компонентов системы.

Затем сервисные процессоры инициализируют эти компоненты, используя интерфейс

сканирования.

Вслед за этим сервисные процессоры, расположенные в разных стойках,

включаются в процесс динамического определения топологии ServerNet. Этот

процесс не зависит от ранее полученных данных по конфигурации системы -

он работает ниже уровня передачи пакетов ServerNet, поскольку предшествует

установке средств маршрутизации. После того как сервисные процессоры определили

топологию сети, они выполняют назначение идентификаторов узлов ServerNet

и программирование таблиц маршрутизации в маршрутизаторах. Затем сервисные

процессоры начинают выполнение начальной установки операционной системы

на главном процессоре. Сервисные процессоры сообщают программе начальной

загрузки и операционной системе перечень аппаратных средств и информацию

об их конфигурации, включая адреса ServerNet для каждого устройства системы.



Интерпретатор


Как обычно, интерпретатор обеспечивает поддержку языка Java (байт-кода) во время исполнения. Собственно интерпретация (в отличие от компиляции) обеспечивает независимость кода апплета от аппаратуры. Интерпретатор выполняет, например, следующие задачи:

исполнение байт-кода управление памятью и созданием объектов обеспечение безопасности



Источники дополнительной информации


Документация по ОС PARIX (EPX) доступна в читальном зале центра

Ее электронный вариант (в формате PostScript) можно взять с гипертекстового сервера центра: http://www.csa.ru/CSA/tutor/epx.ps(3Mb)

On-line документация доступна через команду px man

Приведем список функций:

AExit

AINIT

AInfo

AInit

ARecv

ASend

ASync

AbortServer

AddHead

AddTail

AddTop

AddTop_Data

BreakLink

ChangePriority

CondSelect

CondSelectList

ConnectLink

CreateSem

CreateThread

DestroySem

Execute

Free2DGrid

Free2DTorus

Free3DGrid

Free3DTorus

FreeClique

FreeDeb

FreeHCube

FreePipe

FreeRing

FreeStar

FreeTop

FreeTree

GETGLOBAL

GET_ROOT

Get2DGrid_Data

Get2DTorus_Data

Get3DGrid_Data

Get3DTorus_Data

GetClique_Data

GetDeb_Data

GetGlobId

GetHCube_Data

GetLink

GetLinkCB

GetLocal

GetPipe_Data

GetPriority

GetRing_Data

GetStar_Data

GetTop_Data

GetTree_Data

InitList

InitSem

LIST

LogError

Make2DGrid

Make2DTorus

Make3DGrid

Make3DTorus

MakeClique

MakeDeb

MakeHCube

MakeLink

MakePipe

MakeRTree

MakeRing

MakeStar

MakeTree

NewTop

PostInsert

PreInsert

ReceiveOption

ReceiveOption_B

Recv

RecvLink

RecvNode

RemHead

RemTail

Remove

SELECT

SEMAPHORES

SEND

SENDNODE

SearchList

Select

SelectList

Send

SendLink

SendNode

SetLocal

Signal

StartThread

TIME

TIME

TOPOLOGY

TOPOLOGY

Terminate

TestWait

TimeAfter

TimeAfterOption

TimeAfterOption_B

TimeNow

TimeWait

VIRT_TOP

Virt_Top

Wait

WaitThread

WalkList



Истоки


В начале 50-х годов представители оборонного и космического ведомств США первыми задумались над пределами прогресса ламповых систем. И стали оказывать - сначала осторожно, а потом все более активно - финансовую поддержку проектам, направленным на построение полностью интегрированных электронных систем из твердотельных компонентов. Это стало началом заката "ламповой эры", но философия электронной интеграции не претерпела существенных изменений и по-прежнему напоминала философию построения предложения. В электронике, как в человеческой речи, есть массив стандартных элементов, различающихся по своим функциональным особенностям: фраза всегда состоит из существительных, прилагательных, глаголов, причастных оборотов, а электронная схема - из емкостей, сопротивлений, триодов и диодов. Комбинируя эти элементы, можно придавать фразе тот или иной смысл, а схеме "поручать" решение тех или иных задач.

Твердотельными компонентами должны были стать транзисторы. Самые первые были изготовлены из монокристаллического германия и лишь значительно позже - к середине 50-х годов, когда в Texas Instruments была решена проблема роста монокристаллического кремния, транзисторы стали изготавливаться из этого кремния. Это само по себе сразу же стало коммерчески выгодным предприятием, несмотря на достаточно высокую по тем временам их стоимость (около 10 долл. за штуку).

1951 год ознаменовался тем, что Bell Labs провела свою первую конференцию по транзисторам и начала продавать патентные лицензии стоимостью 25 тыс. долл. на транзисторные технологии. Заинтересовались лицензией и в компании Centralab, где Килби и сделал первые шаги в направлении "германиевой" интеграции. Однако Centralab не была той компанией, деятельность которой - производство слуховых аппаратов и пассивных телевизионных схем - могла бы заинтересовать военных в 1956 году, когда рынок военных кремниевых технологий становился перспективным. Неизмеримо большими возможностями обладала Texas Instruments, где Килби проработал без малого 45 лет и в стенах которой в рамках военного заказа были созданы первые кремниевая и германиевая интегральные схемы.



IV. Эксперимент


Сразу скажу, что эксперимент удался. Не все шло гладко, но в общем связка сработала удачно. Применение ее в походных условиях возможно, тем не менее я выяснил для себя ряд узких моментов, с которыми следует считаться. Как же все это вело себя в реальных условиях?

Первый сеанс связи я устроил по пути в Нальчик в поезде. Письмо, написанное там же, ушло без проблем. Время на соединение с московским номером и передачу данных составило чуть больше минуты (о настройках соединения смотрите приложение А).

Следующий этап - калибровка карты, то есть сняв две первые приметные точки в пути (развилка у В.Баксана и поворот в долину реки Адыл-Су), ввел их в Atlas. Чтобы откалибровать карту, необходимо ввести координаты 2-х точек (желательно расположенных в противоположных углах карты). Для этого, двигая стилусом по экрану, перемещаем карту таким образом, чтобы требуемая точка попала в перекрестие по центру экрана.

Экран программы Atlas

Первое неприятное место - водить стилусом по экрану (мы двигаем карту, а не точку). Этот процесс достаточно долог и неудобен.Однако других вариантов нет. Итак, карта оказалась привязанной к местности. Прибыв в альплагерь Джан-Туган, снял третью точку (координаты лагеря). Погрешность оказалась 300-400 метров, что очень много!

Ошибка определения а/л Джан-Туган

Калиброванная карта Подмосковья давала погрешность в 30-40 метров, что на порядок лучше результатов, полученных в горах (Возможно, что точки, по которым я калибровал, располагаются слишком близко. Возможность перекалибровать у меня еще появится, когда мы будем в окрестностях Эльбруса). Второй минус программы в том, что нельзя калибровать карту по большему числу точек (только по 2-м), что уменьшало бы ошибку привязки. Еще один недостаток обнаружился, когда мы вышли на акклиматизационный выход. Область карты, помещающаяся на экране мала, ориентироваться по ней не удобно. Приходится все-время таскать стилусом карту, что не удобно само по себе, а на морозе вдвойне. Проще иметь под рукой печатный вариант карты, закатанный в прозрачную пленку от влаги (о других вариантах использования Atlas смотрите приложение Б).


Спустя три дня после последней зарядки (еще до отъезда), уровень заряда батареи показывал 20%, и я решил подзарядить Palm. За ночь Palm зарядился до 100% и держал этот уровень в течении всего следующего дня, после чего начал постепенно разряжаться. Среднесуточное время работы Palm составляло 2-3 часа, в течении которых я писал путевые заметки и одно-два письма. При этом путевые заметки вводились на морозе или под палящем солнцем, а письма писались в лагере. На этом этапе пути Palm работал без замечаний. На описание путевой точки уходит не более 2-3 минут, причем основное - это выбор записей из списка и лишь несколько росчерков стилусом, описывающих основные моменты пройденного участка пути. Надо отметить еще одну особенность - Palm хранился либо в нагрудном кармане, либо в нашейной сумке - ближе к телу, чтобы основное время он находился в тепле, что способствует более длительному сохранению заряда.

На протяжение первой половины пути с помощью GPS я только снимал координаты точек и заносил их в Palm. Если погода была неудобной для ведения записей или просто не хватало сил писать, тогда путевая точка заносилась в память GPS и впоследствии обрабатывалась в лагере. Поскольку маршрут проходил в одном районе, то перекалибровка карты не имела смысла. GPS работал на этом участке пути в общей сложности 5-10 минут в день. Надо заметить, что несмотря на горную местность, GPS находил спутники за 1,5 -2 минуты, что значительно быстрее, чем на Московских улицах. В условиях непогоды неплохо было бы иметь портативный MP3 диктофон, который может избавить от написания данных в текущий момент, и сохранить информацию до лагеря, где ее можно будет спокойно обработать.

Сотовая сеть в долине реки Адыл-Су отсутствовала, поэтому телефон не использовался. Он находился в выключенном состоянии в рюкзаке.

Вторая часть маршрута проходила в долине реки Баксан через поселок Терскол на южном склоне горы Эльбрус. На подъезде к поселку Терскол появилась сеть. На сегодняшний день здесь принимается только NC-GSM (Северо-кавказский GSM), хотя я надеялся там подключиться к "Мегафону".


Данный оператор не поддерживает услугу "мобильный интернет", на этот случай работает вариант со звонком по роумингу на Московский номер провайдера и передача данных. При первой попытке дозвона обнаружился интересный факт - при ярком солнце данные по инфрареду передаются с ошибкой, пришлось прикрыть порты рукой, чтобы началась передача - слишком сильное солнечное излучение. Время передачи 3-4 писем составило чуть менее 2-х минут.

Когда мы были в Азау (начало канатной дороги), я снял еще одну точку. Решил перекалибровать карту (на данный момент я имел точки почти в противоположных концах карты), однако либо что-то не так сделал, либо просто прошел сбой - карта откалибровалась неверно и перестала отображаться на экране. Восстановить ее программа не позволила. На этом этапе работа с навигационной программой закончилась. Это самый большой минус программы - невозможность откатиться назад, да и вообще, такое странное поведение при калибровке.

По мере подъема на Эльбрус сотовая связь до станции "Кругозор" оставалась уверенной. Далее, в целях экономии заряда аккумулятора, отключил телефон. Последующие попытки включения не привели к успеху. На высоте "Приюта 11" (4000м) сеть ловится, но телефон не регистрируется в сети (очень странный факт, поскольку у жены телефон зарегестрировался и мы даже звонили с него домой, но всвязи с отсутствием у нее на аппарате услуги "мобильный офис", данные передать не удалось). Временами ловится пара турецких сетей, но регистрация в них тоже не происходит.

Во время отдыха или приготовления обеда (на высоте это достаточно долгий процесс) в лагере, я с удовольствием читал книгу (формат iSilo). Это еще одна полезная особенность Palm.


Java Card Virtual Machine


Основное отличие от обычной виртуальной машины Java заключается в том, что JCVM представляет собой набор из двух компонент: то, что находится на самой карте (интерпретатор) и то, что находится вне карты (конвертор). Рабочий цикл может быть проиллюстрирован следующим рисунком:

Конвертор существует вне смарт-карты. Это Java приложение, работающее на пользовательском компьютере. Конвертор переводит обычные .class файлы (стандартный байт-код) в специальный формат CAP (converted applet)

CAP файл загружается в смарт-карту и далее исполняется интерпретатором. В дополнение к преобразованному байт-коду конвертор создает так называемый экспортный файл, который описывает доступные интерфесы сконвертированного класса. Все опции языка программирования, которые не поддерживаются спецификацией Java Card удаляются при конвертировании.

Собственно CAP файл содержит двоичное представление классов в пользовательском пакете. Фактически этот файл представляет собой Java архив (.jar файл). В архиве содержится информация о классах, выполняемый байт-код, информация о связывании и т.п. Байт-код, определемый CAP построен на основе стандартного Java байт-кода и оптимизирован для исполнения в условиях ограниченных ресурсов смарт-карты. CAP файл определяет двоичную совместимость приложений на платформе Java Card.

Экспортные файлы не загружаются непосредственно в смарт-карту и, следовательно, не используются интерпретатором. Их назначение есть поддержка процесса верификации. В некотором смысле они подобны файлам заголовков в языке C.

Экспортный файл содержит интерфейсов для конвертируемого пакета.описание Он содержит имена и области видимости для классов, а также области видимости и заголовки для всех методов. Также файл содержит информацию о связывании, необходимую для разрешения ссылок между пакетами приложения.

Как и файл заголовков в языке C (или как определение интерфейса в языке Java), экспортный файл не содержит реализации. Это дает возможность свободного распространения экспортных файлов, без раскрытия деталей реализации



Экскурс в историю


Первоначально архитектура SPARC была разработана с целью упрощения реализации32-битового процессора. Впоследствии, по мере улучшения технологии изготовления интегральных схем, она постепенно развивалась, и сегодня существует 64-битоваяверсия этой архитектуры (SPARC-V9), которая положена в основу семейства новых микропроцессоров, получивших название UltraSPARC.

Первый процессор SPARC был изготовлен компанией Fujitsu на базе вентильной матрицы, работающей на частоте 16.67 МГц. На основе этого процессора была разработана первая рабочая станция Sun-4 с производительностью 10 MIPS, объявленная осенью 1987 года. До этого времени компания Sun использовала в своих изделиях микропроцессоры Motorola 680X0. В марте 1988 года Fujitsu увеличила тактовую частоту до 25 МГц, создав процессор с производительностью15 MIPS.

Позднее компания Sun умело использовала конкуренцию среди компаний-поставщиков интегральных схем, выбирая наиболее удачные разработки для реализации своих изделий SPARCstation 1, 1+, IPC, ELC, IPX, 2 и серверов серий 4xx и 6xx.Тактовая частота процессоров SPARC была повышена до 40 МГц, а производительность с до 28 MIPS. Дальнейшее увеличение производительности процессоров с архитектурой SPARC было достигнуто за счет реализации в кристаллах принципов суперскалярной обработки компаниями Texas Instruments и Cypress. Процессор SuperSPARC компании Texas Instruments стал основой серии рабочих станций и серверов SPARCstation/SPARCserver 10 и 20. В зависимости от смеси команд он обеспечивает выдачу до трех команд за один машинный такт. Процессор SuperSPARC имеет сбалансированную производительность на операциях с фиксированной и плавающей точкой. Он имеет внутренний кэш емкостью 36 Кбайт (20 С кэш команд и 16С кэш данных), раздельные конвейеры целочисленной и вещественной арифметики и при тактовой частоте 75 МГц обеспечивает производительность около 205MIPS.

Компания Texas Instruments разработала также 50 МГц процессор MicroSPARC с встроенным кэшем емкостью 6 Кбайт, который ранее широко использовался в дешевых моделях рабочих станций SPARCclassic и LX.
Затем Sun совместно с Fujitsu создали новую версию кристалла MicroSPARC II с встроенным кэшем емкостью 24 Кбайт. На его основе построены рабочие станции и серверы SPARCstation/SPARCserver4 и 5, работающие на частоте 70, 85 и 110 МГц.

Хотя архитектура SPARC в течение длительного времени оставалась одной из наиболее заметной на рынке процессоров RISC, особенно в секторе рабочих станций, повышение тактовой частоты процессоров в 1992-1994 годах происходило более медленными темпами по сравнению с повышением тактовой частоты конкурирующих архитектур. Чтобы ликвидировать это отставание, а также в ответ на появление64-битовых процессоров компания Sun разработала и начала проводить в жизнь пятилетнюю программу модернизации. В соответствии с этой программой Sun планировала довести тактовую частоту процессоров MicroSPARC до 100 МГц в 1994 году (процессор MicroSPARC II с тактовой частотой 110 МГц используется в рабочих станциях и серверах SPARCstation 4 и 5). В конце 1994 и в течение1995 года на рынке появились микропроцессоры hyperSPARC и однопроцессорные и многопроцессорные рабочие станции SPARCstation 20 с тактовой частотой процессора 100, 125 и 150 МГц. К середине 1995 года тактовая частота процессоров SuperSPARC была доведена до 85 МГц (60, 75 и 85 МГц версии этого процессора применяются сегодня в рабочих станциях и серверах SPARCstation 20, SPARCserver1000, SPARCcenter 2000 и 64-процессорном сервере компании Cray Research).Наконец, в конце 1995 года появились 64-битовые процессоры UltraSPARC-I с тактовой частотой 143, 167 и 200 МГц, и были объявлены процессоры UltraSPARC-II с тактовой частотой от 250 до 300 МГц, серийное производство которых должно начаться в середине 1996 года. В дальнейшем планируется выпуск процессоров UltraSPARC-III с частотой до 500 МГц.

Таким образом, компания Sun Microsystems имеет сегодня широкий спектр процессоров, способных, теоретически, удовлетворить нужды любого пользователя, как с точки зрения производительности выпускаемых ею рабочих станций и серверов, так и в отношении их стоимости, и судя по всему не собирается уступать своих позиций на быстро меняющемся компьютерном рынке.


Элементы параллельного программирования


PARIX предоставляет специальные библиотечные функции для упрощения работы с процессами.

В рамках одного узла можно организовать несколько ветвей процесса (threads). Каждая ветвь выполняется параллельно. Все созданные ветви одного процесса имеют доступ к глобальным данным процесса. Говорят, что все ветви исполняются в рамках одного контекста. Каждая ветвь имеет свой собственный стек.

Понятие ветви является основным для модели программирования в симметричных мультипроцессорных системах (например Convex) и должно быть уже известно тем пользователям, кто создавал параллельные приложения для Convex.

Функция CreateThread создает новую ветвь процесса. Как обычно, стандартным методом синхронизации ветвей одного процесса является механизм семафоров.

Другим элементом параллельного программирования является создание нового контекста. В любой момент некоторая ветвь процесса может загрузить и запустить новый процесс (т.е. контекст), со своим собственным кодом, глобальными данными, и начальной ветвью. Породившая ветвь будет ожидать окончания выполнения запущенного контекста. Новый контекст создается функцией Execute.

Типичным приемом в параллельном программировании является следующий: на каждом процессоре запускается начальное приложение, которое определяет свое положение, и в зависимости от результата запускает тот или иной контекст.



Эволюционный путь


Обычно началом истории магнитной ленты как средства хранения компьютерных данных считается весна 1952 года, когда лентопротяжка Model 726 впервые была подключена к машине IBM Model 701, специально предназначенной для научных расчетов. Компьютер этот имел всего 1 Кбайт оперативной памяти на вакуумных лампах; память на ферритовых сердечниках как готовый к использованию продукт появилась чуть позже. Однако, если быть точным, нужно признать, что IBM Model 701 не был первым компьютерным магнитофоном. Верно то, что в нем впервые использовали магнитную ленту для компьютерной цели. А магнитофон, пишущий на стальную струну, годом раньше был подключен к UNIVAC I.

1952 год примечателен еще и тем, что тогда удалось с большой точностью предсказать результаты президентских выборов, используя компьютер UNIVAC I. Вот уж пример «убийственного приложения», отличный незапланированный маркетинговый ход. Усилиями СМИ мгновенно родился общественный интерес к компьютерам, они в одночасье вышли из лабораторий. 1952 год можно назвать годом признания компьютеров, но ради исторической справедливости стоит заметить, что применение компьютера для анализа предвыборной ситуации было вынужденным. На самом деле UNIVAC I создавался на деньги одного из крупнейших американских букмекеров; других спонсоров не нашлось. А делец этот оказался первым из представителей бизнеса, кто распознал значение компьютера в своем бизнесе, в прогнозе результатов в скачках. Но, увы, в силу профессионального риска, присущего такого рода деятельности, этот слишком умный букмекер не дожил до реализации проекта. Создателям UNIVAC I Джону Эккерту и Джону Мочли пришлось срочно искать других покровителей. Вот так странно порой высокое сочетается с низким.

В Model 726 использовали катушки от кинопленки, соответственно ширина ленты оказалось равной одному дюйму, а диаметр бобины — 12 дюймам. Model 726 была способна сохранять 1,4 Мбайт данных, что соответствует емкости одной современной дискеты. Плотность 9–дорожечной записи составляла 800 бит на дюйм; при движении ленты со скоростью 75 дюймов в секунду в компьютер передавалось 7500 байт в секунду.
Сама магнитная лента для Model 726 была разработана компанией 3M (теперь Imation). Эта компания сохранила положение одного из главных поставщиков лент до сих пор. Плотность записи была столь мала, а надежность считывания столь низка, что в течение длительного времени существовал несколько странный способ аварийного чтения. Вплоть до 80-х годов в комплект поставки лент входил флакон специальных чернил. Утверждалось, что если ими смочить поверхность ленты, то с помощью увеличительного стекла удастся считать информацию... глазами. (Этот флакон мне пришлось видеть, а вот использование его содержимого — ни разу.)

Довольно скоро от дюймовых лент по понятным причинам отказались, и на длительный период установилось почти монопольное господство полудюймовых «открытых лент» (open reel), в которых перемотка осуществлялась с одной бобины на другую (reel-to-reel). Плотность записи повышалась с 800 до 1600 и даже 6250 бит на дюйм. Эти ленты со съемными кольцами для защиты от записи были популярны на компьютерах типа ЕС и СМ ЭВМ. Они широко использовались до середины 90-х годов и, судя по тому, что наличествуют в номенклатуре производителей лент, где-то используются и до сих пор. Объем записываемых на полудюймовые ленты данных измерялся сначала несколькими десятками мегабайт, а в последних версиях вырос до 250 Мбайт. Когда такие устройства снимали с эксплуатации, информацию приходилось скачивать на более современные носители. Было занятно наблюдать, как содержимое нескольких огромных бобин умещалось на одной ленте стримера QIC размером с обычную аудиокассету. Надо заметить, полудюймовые ленты широко использовались не только для резервирования и архивирования, но и для переноса данных с машины на машину. Они были стандартом, поэтому прочитать на EC ЭВМ ленту, записанную на СМ, не составляло труда. Они были распространенным средством транспортировки программ и данных. Кстати, на этих лентах в стенах советских институтов начиналось пиратское копирование системных и прикладных программ, правда, тогда никто не знал этого слова.



Говоря о магнитных летах, нельзя не вспомнить еще одно чрезвычайно изящное устройство, предшествовавшее современному оборудованию. «Крошки» DECtape, не имевшие аналогов среди накопителей, в 60-е и 70-е годы были очень популярны на DEC-овских «мини». Их распространенность объяснялась тем, что с появлением недорогих миниЭВМ оказалось востребованным устройство, похожее по своему назначению на флоппи-диски. Пользователям был необходим легкий сменный носитель «индивидуального пользования», но первые 8-дюймовые гибкие диски появились на свет лет на десять позже. Решение на основе имеющихся в ту пору технологий было найдено инженерами из DEC, и называлось оно DECtape.



В накопителе IBM, которое увидело свет в 1953 году, использовалась оксидированная неметаллическая пленка, шириной чуть больше сантиметра. Информация записывалась в шести каналах, располагавшихся вдоль ленты. Седьмой канал применялся для контроля при записи и считывании методом контроля четности с введением избыточности. Плотность записи на ленте составляла 100 бит на дюйм длины ленты. Ленты можно было переставлять с устройства на устройство. Получили распространение два варианта лентопротяжных устройств — с двумя 1200-футовыми и двумя 200-футовыми катушками

Однако никогда не бывает ничего на 100% оригинального; всегда обнаруживается определенная преемственность. В основу DECtape было положено устройство, которым комплектовалась, выпущенная малой серией машина LINC. Об этой машине тоже стоит вспомнить, ведь именно ее сообщество IEEE Computer Society признало в качестве первого персонального интерактивного компьютера. LINC в 1962 году спроектировали Весли Кларк и Северо Орнштейн, первопроходцы из Линкольновской лаборатории. Проект был доступен всем — он, как говорят, был помещен в public domain — поэтому клонировался несколькими компаниями, широко использовался военными, в том числе, устанавливался на атомных подводных лодках. LINC имел операционную систему, экран, напоминавшее мышь четырехкнопочное устройство и своеобразный накопитель на ленте.


Этот компьютер оказал влияние на появление PDP-8, был даже некий гибрид LINC-8. Последний LINC был снят с эксплуатации только в 1995 году и помещен в музей МТИ. В усовершенствованном виде лента с LINC получила новое воплощение в виде серийного накопителя TU56 и нескольких его вариаций.

Использованный в DECtape носитель, диаметром четыре дюйма, а шириной три четверти дюйма, был предварительно форматирован, разделен на 1474 блока по 129 12-разрядных слов; таким образом, всего на нем можно было хранить до 184 килослов. Запись и чтение можно было выполнять в режиме, близком к прямому доступу к данным.

Необходимость в принципиально новых накопителях возникла в середине 80-х. Размеры жестких дисков, устанавливаемых на машинах, стали измеряться сотнями мегабайт или даже гигабайтами. Понадобились резервные накопители, соответствующие этим дискам по емкости. Неудобства открытых лент были понятны, даже в быту кассетные магнитофоны быстро вытеснили катушечные. Естественный переход к картриджам происходил двумя путями. По одному пути шли те компьютерные компании, которые создавали свои собственные специализированные устройства, специально ориентированные на компьютеры решения (в основном, по линейной технологии). По второму — компании, пришедшие к выводу, что технологии с вращающимися головками (в основном, по винтовой технологии), изобретенные для видеозаписи и цифровой аудиозаписи, могут быть адаптированы для компьютеров. Естественно, приспособленные устройства быстро превращались в специализированные; но именно с тех пор и сложилось такое странное технологическое разделение на два лагеря, которое придает рынку накопителей неповторимую специфику.

В 80-е годы, во время первой ленточной революции, существовали две крупные компьютерные компании — IBM и DEC, и обе они решили строить новые накопители по линейной технологии. В IBM разрабатывались мощные устройства 3480/3490 и 3590 Magstar, от которых ведет свое генеалогическое древо и стандарт LTO Tape Cartridge. В DEC было создано устройство, которое по замыслу должно было конкурировать с ними; оно послужило началом для формата DLT.


На первых порах это устройство называлось CompacTape и предназначалось для создания резервных копий на компьютерах собственного производства DEC, прежде всего на VAX. Не имея достаточного опыта работы с магнитными лентами, DEC обратилась за сотрудничеством к японской корпорации Fujifilm. Вместе они разработали устройство TF85 CompacTape cartridge, продемонстрированное DEC в 1991 году, которое было способно хранить 2,6 Гбайт. Спустя год появилось 6-гигабайтное устройство TF86 CompacTape cartridge. Но вскоре, в 1993 году, DEC продала эту продуктовую линейку известному производителю жестких дисков, компании Quantum. В отличие от DEC, в Quantum быстро поняли потенциал стандарта DLT и решили распространить подобные устройства на более широкий спектр компьютеров. Это компании вполне удалось: уже в 1994 году Quantum выпустила протяжку и картридж DLT-4000 емкостью 20 Гбайт. К 2002 году Quantum выпустила боле 1,6 млн. устройств DLT и свыше 70 млн. картриджей для них. В свою очередь, Fujifilm на базе совместных исследований создала технологию ATOMM (Advanced Super-Thin-Layer and High-Output Magnetic Media), на основе которой, строятся, например, диски Iomega ZIP.

Другая группа компаний занялась адаптацией известных способов записи на ленту к компьютерам. Большого успеха на этом направлении добились в 3M. Еще в начале 70-х годов компания разрабатывала кассетные ленточные устройства стандарта QIC (Quarter-Inch-tape-Cartrige), предназначенные для телекоммуникационных приложений. В 3M вовремя сориентировались, изменив предназначение своего изделия; формат QIC оказался одним из наиболее дешевых и практичных для использования на ПК. Он прошел целый ряд трансформаций; всего насчитывается около 120 разновидностей. Есть его версия под названием Travan, поддерживаемая до сих пор.

В середине 80-х группа инженеров из Storage Technology, вдохновленная доступностью видеолент форматов 8mm и VHS, основали известную теперь компанию Exabyte. Им удалось использовать преимущества винтовой технологии.


Работая вместе с Sony, они уже в 1987 году смогли поставить на развивающийся рынок Unix-серверов накопитель емкостью 2,4 Гбайт и скоростью обмена 240 Кбайт/с. В следующей версии на том же формате ленты скорость возросла до 1 Мбайт/с, а емкость составила 7 Гбайт.

Третья попытка адаптации известных продуктов состоялась в 1989 году, когда усилиями компаний Hewlett-Packard и Sony был адаптирован для хранения данных формат Digital Audio Tape (DAT); на его основе возник стандарт Digital Data Storage (DDS).

В конце 90-х наметились предпосылки к очередной революционной перемене. Появилось еще насколько многообещающих, новых форматов, в том числе AIT, VXA и ADT, затем S-AIT, наконец, в нынешнем году ожидается еще один — O-Mass.

Картриджи используются либо в автономных устройствах, либо в составе ленточных библиотек. При попытке вспомнить интерьер вычислительных центров 70-х перед глазами непременно встанут ряды магнитофонов. Их было много по разным причинам, но главные — низкая скорость и необходимость участия оператора в процессе установки ленты. С появлением картриджей открылась возможность создания автоматизированных ленточных библиотек. Первой роботизированную библиотеку на 6 тыс. картриджей выпустила компания StorageTek в 1987 году.


Как делают микросхемы?


Что может быть проще, чем обычный песок, и что может сравниться по сложности с компьютерными микросхемами? Между тем кремний как раз и является исходным материалом для производства интегральных схем, которые сегодня управляют всеми электронными устройствами, начиная от суперкомпьютеров и заканчивая сотовыми телефонами и микроволновыми печами.

Превращение песка в крошечные устройства, включающие в себя миллионы компонентов, - величайшее достижение ученых и инженеров, казавшееся совершенно невозможным всего полвека тому назад, до изобретения в 1947 году сотрудниками лаборатории Bell Labs транзистора. Кремний - естественный полупроводник. При определенных условиях он способен проводить электричество, в других же случаях выступает в роли изолятора. Электрические свойства кремния можно изменять, добавляя в него различные примеси. Этот процесс называется легированием. Подобные добавки превращают кремний в идеальный материал для изготовления транзисторов - простейших устройств, видоизменяющих электрические сигналы. Транзисторы могут также выполнять функции переключателей, комбинация которых позволяет реализовать логические операции "и", "или", "не".

Микросхемы выпускаются на заводах, в строительство которых необходимо вложить многие миллиарды долларов. На заводе песок плавится и очищается, превращаясь в однородные слитки кремния с чистотой 99,9999%. Специальные ножи разрезают слитки на пластины толщиной с мелкую монету и диаметром в несколько дюймов. Пластины очищаются и шлифуются. Каждая из них служит для изготовления множества микросхем. Этот и последующий этапы выполняются в так называемой "чистой" комнате, в которой особо тщательно следят за отсутствием пыли и других инородных тел.

Непроводящий слой диоксида кремния на поверхности кремниевой пластины расширяется и покрывается светочувствительным химическим соединением.

Это соединение (фоторезист) подвергается воздействию ультрафиолетового облучения через специальный шаблон, или маску, для закрепления участков, обработанных излучением.
Необработанные области протравливаются горячим газом, который обнажает подложку диоксида кремния, находящуюся внизу. Подложка и нижний слой кремния вытравливаются для получения пластины нужной толщины.

Фоторезист, задействованный в процессе фотолитографии, впоследствии удаляется, оставляя на микросхеме рельефные выступы, конфигурация которых повторяет схему цепи, представленную в маске. Электрическую проводимость отдельных компонентов микросхемы также можно изменить за счет легирования их специальным химическим составом при высокой температуре и давлении. Процедура фотолитографии с использованием различных масок, за которой следует вытравливание и легирование, повторяется для каждой микросхемы многократно. Таким образом на каждом этапе мы получаем все более сложную интегральную схему.



Для формирования проводников, которые связывают отдельные компоненты, вытравленные ранее на микросхеме, она покрывается тонким слоем металла (как правило, это алюминий или медь). После этого путем литографии и вытравливания удаляется весь металл, за исключением тоненьких проводников. Иногда на микросхему накладывается несколько слоев проводников, разделенных стеклянными изоляторами.



Как из рога изобилия


Модемы для коммутируемых линий не предназначены для достижения скоростей выше 56 кбит/с, и потому если для доступа в Internet вам нужна более высокая пропускная способность, оптимальным вариантом будет кабельный модем или соединение по выделенной линии. Но чтобы воспользоваться любой из этих возможностей, вы должны жить в одной из областей (обычно в крупных городах), где предоставляется такой сервис.

Соединения обоих упомянутых типов превосходят модемы на 56 кбит/с по скорости обмена данными в 20 и более раз. Кроме того, они обычно обеспечивают "постоянное" подключение, при котором вам не нужно возобновлять связь всякий раз, когда захотите что-то найти в Web или заглянуть в свой почтовый ящик. Ежемесячный тариф за такие услуги обычно составляет от 40 до 80 долл.

Если вы хотите модернизировать свой ПК, чтобы пользоваться упомянутыми выше технологиями, то такая работа не составит никакого труда, поскольку она, как правило, выполняется техническими специалистами фирмы, предоставляющей эти услуги. Начальная плата за установку составляет 70-200 долл. в зависимости от скидок и прочих условий. В будущем новые стандарты должны позволить производителям продавать необходимое оборудование в компьютерных магазинах с тем, чтобы покупатель мог установить его самостоятельно. Ну а пока остается рассчитывать на услуги компании-поставщика услуг.



Как создавалась интегральная схема


Дмитрий Мурин

Computerworld, #04/2003

Опубликовано 11.02.2002

История создания интегральной схемы - типичный пример воплощения европейской мечты за океаном.

Самая престижная научная награда, Нобелевская премия по физике, обычно вручается ученым, которые внесли наибольший вклад в области фундаментальных исследований. Поэтому присуждение премии 2000 года американскому инженеру-электротехнику Джеку Килби за работы прикладного характера вызвало немалое удивление в научном сообществе. Однако удивление быстро сменилось осознанием того, что изобретение интегральной схемы представляет собой великолепный пример использования результатов фундаментальных исследований для создания новых инструментов, которые, в свою очередь, позволяют получать новые фундаментальные результаты.



Как выбрать факс-систему


При всем многообразии существующих сегодня факс-систем выбрать оптимальное решение нелегко. На первый взгляд задача этих систем сводится к обеспечению приема и передачи факсов в компании. Вместе с тем, существует ряд требований, которым должна удовлетворять корпоративная факс-система. Перечислим их:

автоматизация процесса работы с факсами; снижение расходов при работе с факсами; создание отчетов о работе службы факсимильной связи, возможность биллинга; многоплатформенность как на уровне клиента, так и на уровне факс-сервера; максимальная интеграция с почтовыми системами; масштабируемость реализации; удобство администрирования, учета и архивирования факсов; интеграция с бизнес-приложениями; широкие возможности работы с сообщениями (телекс, SMS, SITA-сообщения); построение распределенной факсовой службы и интеграция с факс-службами Internet.

Как правило, программная часть факс-системы состоит из нескольких модулей:

ПО самого факс-сервера; клиентского ПО; программы управления (ПО администратора).

Понятно, что каждый из этих модулей должен соответствовать изложенным выше требованиям.



Кбит: стоящая модернизация


Если вы все еще пользуетесь модемом со скоростью передачи данных 28,8 или 33,6 кбит/с, пора приобрести модель на 56 кбит/с (если только в ваши планы не входит переход на что-нибудь еще более быстрое, например на выделенную линию). Почти все провайдеры Internet сегодня поддерживают стандарт 56 кбит/с, и такой модем может заметно ускорить вашу работу с Сетью даже при том, что реальная скорость соединения обычно составляет 40-45 кбит/с.

Прежде чем купить новый модем, загляните на Web-узел изготовителя модема, установленного у вас в настоящий момент, и поинтересуйтесь, нет ли для него обновления микропрограммного обеспечения. Иногда модернизация до 56 кбит/с потребует от вас всего лишь перепрограммирования флэш-ПЗУ модема путем запуска специальной программы. Однако если вашему модему больше трех-четырех лет, то надеяться на это особенно не стоит. Тогда можно за определенную плату (25-50 долл.) заменить микросхему ПЗУ или обменять старый модем на новый.

Кроме того, не забывайте, что новые модемы сегодня относительно недороги. Так, внутренний FaxModem 56K Dualmode фирмы Zoom Telephonics стоит около 70 долл. Как и любой другой внутренний модем, он при установке может вызвать конфликт с последовательными портами ПК. Если такие проблемы вас пугают, то лучше потратить чуть больше и приобрести внешний модем, подключаемый к последовательному или USB-порту.



Кирпичик


Что представляет собой узел? Каждый узел системы Parsytec CC/16 есть компьютер, построенный на процессоре PowerPC 604 фирмы Motorola, который работает на тактовой частоте 133Мгц. Стандартная материнская плата имеет PCI-слоты, в один из которых вставлена плата ``скоростной связи'' (High Speed Link). Кроме HSL, каждый узел имеет стандартный сетевой интерфейс Ethernet-TP. Кроме того, некоторые узлы оборудованы дополнительной периферией (см. ниже).

Каждый узел имеет свой SCSI жесткий диск, с которого он загружается. Размер оперативной памяти в нашей конфигурации - 32Мбайт на узел.



Кэш-память данных


В процессоре UltraSPARC-1 используется кэш-память данных D-кэш с прямым отображением емкостью 16 Кбайт, реализующая алгоритм сквозной записи. D-кэшорганизован в виде 512 строк, в каждой строке размещаются два 16-байтныхподблока данных. С каждой строкой связан соответствующий адресный тег. D-кэш индексируется с помощью виртуального адреса, при этом теги также хранят соответствующую часть виртуального адреса. При возникновении промаха при обращении к кэшируемой ячейке памяти происходит загрузка 16-байтногоподблока из основной памяти.

Поиск слова в D-кэше осуществляется с помощью виртуального адреса, младшие разряды которого обеспечивают доступ к строке кэш-памяти, содержащей требуемое слово (прямое отображение). Старшие разряды виртуального адреса сравниваются затем с битами соответствующего тега для определения попадания или промаха. Подобная схема гарантирует быстрое обнаружение промаха и обеспечивает преобразование виртуального адреса в физический только при наличии промаха.



Кэш-память команд


Кэш-память команд (I-кэш) представляет собой двухканальную множественно-ассоциативную кэш-память емкостью 16 Кбайт. Она организована в виде 512 строк, содержащих по 32 байта данных. С каждой строкой связан соответствующий адресный тег. Команды, поступающие для записи в I-кэш проходят предварительное декодирование и записываются в кэш-память вместе с соответствующими признаками, облегчающими их последующую обработку. Окончательное декодирование команд происходит перед их записью в буфер команд.



Ключевые возможности: разбиение системы и услуги среды AVFlex


Ключевым средством среды AVFlex является возможность разбиения системы, которая позволяет пользователям адаптировать свои серверы AV 25000 в соответствии с изменением рабочей нагрузки, разрабатывать и тестировать новые приложения, избегая при этом нежелательного влияния на производственную систему, а также развертывать приложения, использующие Microsoft Windows NT Server. С помощью вычислительной среды AVFlex пользователи могут добиваться разбиения сервера AV 25000 (состоящего из множества блоков SBB) на несколько независимых систем. Так, например, в результате разбиения 16-процессорного сервера AV 25000 можно создать 12-процессорную систему с операционной системой DG/UX и 4-процессорную систему с Microsoft Windows NT Server.

Компания Data General предлагает ряд новых консалтинговых услуг и услуг по внедрению программного и аппаратного обеспечения, помогая клиентам в анализе их деловых потребностей и стратегии IT, а также осуществляя планирование и развертывание сред AVFlex, ориентируясь на заказ клиента. Такие услуги включают в себя:

Enterprise Technology Infrastructure Consulting (Консалтинговые услуги по планированию Технологической Инфраструктуры Предприятий)


Услуги Enterprise Technology Infrastructure (ETI) - это помощь в анализе, разработке и планировании будущей инфраструктуры IT, которая соответствует деловым задачам клиента.

Услуги по внедрению DG/UX для ссNUMA


Установка аппаратного обеспечения и конфигурирование базовой среды ccNUMA в соответствии с заказом клиента.

Услуги по установке оптоволоконных средств CLARiiON для серверов AViiON


Установка аппаратного обеспечения и конфигурирование оптических дисковых массивов CLARiiON Fibre Channel в соответствии с заказом клиента.

Услуги по кластеризации (на основе DG/UX) для ссNUMA


Установка аппаратного обеспечения и конфигурирование DG/UX Clusters в соответствии с заказом клиента.

Услуги по разбиению среды AVFlex


Услуги на заказ, включающие в себя планирование, конфигурирование и внедрение всех разделов системы, а также анализ системного управления.



Когерентность кэш-памяти


Известно, что требования, предъявляемые современными процессорами к полосе пропускания памяти, можно существенно сократить путем применения больших многоуровневых кэшей. Проблема когерентности памяти в мультипроцессорной системе возникает из-за того, что значение элемента данных, хранящееся в кэш-памяти разных процессоров, доступно этим процессорам только через их индивидуальные кэши. При этом определенные операции одного из процессоров могут влиять на достоверность данных, хранящихся в кэшах других процессоров. Поэтому в подобных системах жизненно необходим механизм обеспечения когерентного. согласованного . состояния кэшей. С этой целью в архитектуре PowerScale используется стратегия обратной записи, достигаемая при применении вертикальной когерентности кэшей и вторичной когерентности кэш-памяти.

Каждый процессор для своей работы использует двухуровневый кэш со свойствами охвата. Это означает, что кроме внутреннего кэша первого уровня, встроенного в каждый процессор PowerPC, имеется связанный с ним кэш второго уровня. При этом каждая строка в кэше L1 имеется также и в кэше L2. В текущей реализации объем кэша L2 составляет 1 Мбайт на каждый процессор, а в будущем предполагается его расширение до 4 Мбайт. Сама по себе кэш-память второго уровня позволяет существенно уменьшить число обращений к памяти и увеличить степень локализации данных. Для повышения быстродействия кэш L2 построен на принципах прямого отображения. Длина строки равна 32 байт . размер когерентной гранулированности системы. Следует отметить, что, хотя с точки зрения физической реализации процессора PowerPC, 32 байта составляют только половину строки кэша L1,это не меняет протокол когерентности, который управляет операциями кэшаL1 и гарантирует, что кэш L2 всегда содержит данные кэша L1.

Кэш L2 имеет внешний набор тегов. Таким образом, любая активность механизма наблюдения за когерентным состоянием кэш-памяти может быть связана с кэшем второго уровня, в то время как большинство обращений со стороны процессора могут обрабатываться первичным кэшем.
Если механизм наблюдения обнаруживает попадание в кэш второго уровня, то он должен выполнить арбитраж за первичный кэш, с целью обновления состояния и, возможно, поиска данных, что обычно будет приводить к приостановке процессора. Поэтому глобальная память может работать на уровне тегов кэша L2, что позволяет существенно ограничить количество операций наблюдения, генерируемых системой в направлении данного процессора. Это, в свою очередь, существенно увеличивает производительность системы, поскольку любая операция наблюдения в направлении процессора сама по себе может приводить к приостановке его работы.

Вторичная когерентность кэш-памяти требуется для поддержки когерентности кэшей L1&L2 различных процессорных узлов . для обеспечения когерентного состояния всех имеющихся в мультипроцессорной системе распределенных кэшей, естественно включая поддержку когерентной буферизации ввода/вывода как по чтению, так и по записи. Вторичная когерентность обеспечивается с помощью проверки каждой транзакции, возникающей на шине MPB_SysBus. Такая проверка позволяет обнаружить, что запрашиваемая по шине строка уже кэширована в процессорном узле, и обеспечивает выполнение необходимых операций. Это делается с помощью тегов кэша L2 и логически поддерживается тем фактом, что L1 является подмножеством L2.


Компиляторы


Чтобы ваша прикладная программа могла быть запущена под управлением ОС PARIX необходимо, чтобы она была скомпилирована специальным образом. Чем же отличаются программы PARIX от программ AIX? Приложения PARIX используют другие библиотечные функции для операций ввода/вывода, а также специальные библиотечные функции (из библиотек PARIX).

Операции ввода-вывода в приложении PARIX переопределены таким образом, что независимо от узла, на котором будет работать приложение, ввод-вывод относится к IO-узлу.

Специальные библиотечные функции PARIX позволяют организовать межпроцессорное взаимодействие (синхронизацию и обмен данными по HSL).

Приложения AIX не будут работать, если их запустить на разделе PARIX, и наоборот, AIX не ``поймет'' запросов запущенного приложения PARIX. Так что PARIXу - PARIXово.

Parsytec CC/16 оснащен стандартными для AIX компиляторами языков C и FORTRAN. С помощью этих компиляторов вы можете создать как приложение для AIX, так и приложение для PARIX. Для приложений AIX вы используете команду

ancc -o test test.c

Тогда как для того, чтобы сделать исполняемый файл для PARIX, надо дать команду

px ancc -o test.px test.c

Как обычно, команда-префикс px модифицирует следующую за ней команду так, что она превращается в команду ОС PARIX.

Отметим, что по соглашению исполняемые файлы PARIX имеют суффикс .px. Это позволяет отличать их от приложений, скомпилированных для AIX.

Компилятор языка FORTRAN вызывается командой f77. Если вы компилируете PARIX приложение, следует использовать команду px f77, например

px f77 -o test.px test.f



Компьютерное моделирование времени и анализ ошибок


Большинство компьютеров содержат в составе аппаратной части кварцевый генератор с резонансной стабилизацией и аппаратный счетчик, генерирующий процессорные прерывания через интервалы, равные нескольким миллисекундам. При каждом прерывании к переменной, представляющей собой текущее локальное внутрикомпьютерное время, добавляется величина, на компьютерном сленге называемая "тик" (или "миг"). Переменная-время может быть прочитана операционной системой и приложениями, а также изменена (установлена) под влиянием внешнего программного или аппаратного воздействия. Однажды установленное, компьютерное время получает постоянное приращение с номинальным темпом, зависящим от величины тика. Ядра некоторых наиболее распространенных операционных систем имеют программные механизмы увеличения или уменьшения величины тика на небольшое фиксированное значение, для того чтобы произвести заданную корректировку компьютерного времени не скачкообразно, а плавно, в течение нескольких последующих тиков - время как бы искуственно замедляется или ускоряется.

Напомним, что часы операционной системы и аппаратные часы CMOS вовсе не одно и то же, протоколы коррекции времени работают в основном с операционной системой, а ОС либо самостоятельно, либо с помощью каких-то утилит вмешивается в работу часов CMOS. Неточность компьютерного времени проявляется вследствие множества факторов - это могут быть сетевые транспортные задержки, латентность аппаратного и программного обеспечения, а также банальная нестабильность кварцевого генератора. Время клиента относительно времени сервера может быть вычислено как следующая функция:

T(t) = T(t0) + R(t - t0) + ½D(t - t0)2

Здесь t - текущее время; T - смещение времени в момент последней коррекции t0; R - смещение тактовой частоты генератора; D - дрейф вследствие "старения" резонатора. Все три слагаемых функции содержат как систематические смещения, подлежащие коррекции, так и случайные величины, которые принципиально не могут быть подправлены.
Некоторые протоколы коррекции, например DTSS, работают лишь с первым из трех слагаемых, а, например, NTP - вычисляют первые два слагаемых. Ошибки, вызванные пренебрежением третьим слагаемым (безусловно, играющим роль при различных прецизионных применениях вычислительной техники), незначительны и в большинстве случаев перекрываются погрешностями первых двух слагаемых.

Протокол NTP оценивает T(t0) (и R, где необходимо) в постоянные промежутки времени и производит корректировку часов с целью уменьшения T(t) в будущем. В общем случае R может иметь систематические смещения, равные несколько сот герц на миллион в ту или иную сторону, вызванные в первую очередь изменениями температуры окружающей среды. Если периодически не производить коррекцию, суммарная суточная погрешность может достичь нескольких секунд в сутки. Для того чтобы результирующие ошибки не превышали номинальных значений, алгоритмы протокола NTP периодически вычисляют T и R - с целью компенсировать такие ошибки и через определенные интервалы скорректировать системное время. На практике это означает, что, например, для достижения номинальной точности в десять миллисекунд требуется синхронизация клиента с сервером с интервалом в десять минут.

Анализ кварцевых генераторов с резонансной стабилизацией показывает: ошибки являются функцией времени, а это автоматически подтверждает необходимость выдерживать интервал между "сверкой часов". Установлено, что, если интервал между синхронизациями превышает несколько сотен секунд, погрешность протокола доминирует над аппаратным "поползновением" времени, если же интервал менее нескольких сотен секунд, то в значительно большей степени проявляются программные "сдвиги".

Ошибки протокола накапливаются на всех уровнях стратума, начиная с наивысшего, затем распространяются по более низким уровням и в конце-концов достигают клиентов. Это выглядит угрожающе, но есть возможность предусмотреть подобные ошибки, например, статистическими методами, как в реализации протокола NTP.


Компьютеры на базе технологии ServerNet


В рамках нового семейства Integrity S4000 компания Tandem выпускает

две модели серверов (CM и CO), построенные на базе технологии ServerNet.

Можно выделить три главные подсистемы: процессорную, подсистему в/в и подсистему

внешней памяти. Процессорная подсистема строится на базе системных плат

(SPU), каждая из которых включает по два микропроцессора с памятью и логикой

сравнения, связанных дублированными каналами с подсистемой в/в. В качестве

микропроцессоров применяются MIPS R4400/200 с кэш-памятью первого уровня

емкостью 32 Кбайт. Объем кэш-памяти второго уровня составляет 1 Мбайт/процессор.

Объем основной памяти системы может составлять 1 Гбайт.

Подсистема в/в ServerNet создает отказоустойчивую магистраль передачи

данных между SPU и контроллерами периферийных устройств и коммуникационными

адаптерами. Отказоустойчивость обеспечивается благодаря использованию двух

независимых подсетей ServerNet. Integrity S4000 поддерживает несколько

типов контроллеров в/в. В составе каждого сервера имеется многофункциональный

контроллер SSC (Standard System Controller), который обеспечивает интерфейс

ServerNet с контроллерами в/в, контроллерами SCSI-2 для внутренних устройств

массовой памяти, сервисным процессором, а также последовательными и сетевыми

интерфейсами для поддержки средств диагностики и консоли. Пара контроллеров

SSC обеспечивает отказоустойчивый доступ к устройствам массовой памяти.

Каждый контроллер SSC содержит по два интерфейса шины SCSI-2, которые соединены

с другим контроллером SSC и обеспечивают два независимых пути доступа ко

всем внутренним дисковым и ленточным накопителям. Система поддерживает

"зеркалирование" дисков для обеспечения непрерывного доступа к хранящимся

на дисках данным.

В серверы Integrity S4000 могут также устанавливаться дополнительные

контроллеры Ethernet, асинхронного и синхронного интерфейсов, каждый из

которых имеет по два порта для обеспечения доступа к процессорам через

две независимых подсети ServerNet.
Контроллеры SSC и дополнительные контроллеры

в/в могут заменяться в режиме "горячей" замены.



Рисунок 7.

Структурная схема сервера семейства Integrity S4000

Модели CM и CO отличаются максимальным количеством устанавливаемых системных

плат SPU и характеристиками подсистем в/в (таблица 1),

а также областью применения. Модели CO специально предназначены для установки

в помещениях телекоммуникационных узлов связи и удовлетворяют весьма жестким

требованиям (стандарт Bellcore TR-NWT-000063, выпуск 5) по обеспечению

повышенной безопасности, устойчивости к пожарам и электрическим характеристикам.

Они проверены на устойчивость к землетрясениям, имеют трехуровневую систему

аварийной сигнализации и резервные источники питания постоянного тока.

Обе модели работают под управлением операционной системы NonStop-UX,

базирующейся на стандарте UNIX System V Release 4.2 MP и обеспечивающей

средства повышенной готовности и минимизацию плановых простоев системы,

включая средства быстрого обнаружения неисправностей и восстановления,

а также возможность модернизации программного обеспечения в режиме on-line.

Таблица 1
Основные параметры моделей CM и CO семейства Integrity

S4000
S4000-CM S4000-CO
Возможности конфигурации
Количество плат SPU 4 8
Процессорные конфигурации
Симплексная 1-4 проц.SMP 1-4 проц.SMP
Дуплексная (отказоустойчивая) 1-2 проц.SMP 1-4 проц.SMP
Маршрутизаторы 2 4
Платы SSC 2 4
Гнезда в/в ServerNet 10 20
Количество мест установки устройств внешней памяти 12 36
Процессор/Микропроцессор MIPS RISC R4400 MIPS RISC R4400
Тактовая частота 200 МГц 200 МГц
Первичный кэш 16 Кб - команды/16 Кб - данные 16 Кб - команды/16 Кб - данные
Вторичный кэш 1 Мб / процессор 1 Мб / процессор
Основная память
Объем 128/256ECC/проц. 128/256ECC/проц.
Максимально в системе 1024 Мб 1024 Мб
Пропускная способность шины памяти (пиковая) 400 Мб/с / проц. 400 Мб/с / проц.
Подсистема в/в
Количество каналов в/в 2 подсистемы в/в 2 подсистемы в/в
Пропускная способность каналов в/в (пиковая) 200 Мб/с / проц. 150 Мб/с / проц.
Пропускная способность каналов в/в (пиковая) 800 Мб/с / сист. 600 Мб/с / сист.

Компоненты среды AVFlex


Cервер av 25000 ccnuma Оптические средства хранения данных clariion fc5000 Операционная система DG/UX Microsoft Windows NT server Возможность взаимодействия между операционной системой DG/UX и Microsoft Windows NT server Средства DG/UX Clusters Консалтинговые услуги и услуги по внедрению программного и аппаратного обеспечения