Intel и технологии высокопроизводительных вычислений

Для решения сложнейших вычислительных задач и обработки очень больших массивов данных во всем мире используются высокопроизводительные вычисления (HPC). Из-за сложности подобных вычислений в HPC-сегменте рынка вместо фирменных векторных суперкомпьютеров, а также RISC/UNIX- оборудования и ПО все чаще применяются системы и решения на базе стандартных отраслевых технологий и компоновочных блоков, позволяющие использовать преимущества массовой продукции. Поддержка открытых отраслевых стандартов и решений позволяет существенно снизить расходы, при этом по мере появления новых аппаратных и программных технологий производительность, функциональность и гибкость новых решений будут непрерывно возрастать.

Существуют два основных фактора, стимулирующих инновации и инвестиции в HPC-сегменте рынка. Первым из них является производительность: чем выше быстродействие системы и эффективность обработки данных, тем большего она позволяет добиться. Вторым важнейшим стимулом является эффективность использования инвестиций. Все пользователи HPC-систем независимо от того, являются ли они академическими, исследовательскими или отраслевыми учреждениями, находятся в конкурентной среде. Следовательно, они смогут использовать преимущества массовой продукции и лучше реализовывать исследовательские или деловые цели, если будут обладать возможностью сократить свои затраты, не снижая производительности. Кроме того, область применения высокопроизводительных компьютеров расширяется, и к научным, исследовательским и академическим задачам добавляются инженерные и коммерческие. Решения на базе платформ Intel, поддерживающих открытые стандарты, предоставляют функциональные возможности уровня суперкомпьютеров при значительном снижении расходов по сравнению с фирменными системами, предназначенными для проведения современных научных исследований, а также выполнения отраслевых и корпоративных HPC-приложений. Компоновочные блоки на базе продукции Intel — архитектур, процессоров, платформ, межкомпонентных соединений, программного обеспечения и сервисов — позволяют создать HPC-решения с оптимальной производительностью, средствами сетевого управления, безопасности и надежности. Тенденция к использованию архитектуры на базе открытых стандартов нашла отражение в списке самых мощных вычислительных систем в мире TOP500, который на протяжении последних лет отражает рост популярности стандартных отраслевых компоновочных блоков — таких, как процессоры и платформы архитектуры Intel, — позволяющих повышать производительность и снижать расходы. За последние четыре года число машин на базе компонентов Intel в этом списке возросло с 6 (1,2%) до 333 (67%), причем процессор Intel Xeon теперь является самой распространенной платформой в списке TOP500 ( сайт

"Сердцем" множества наиболее быстродействующих вычислительных систем мира являются два процессора Intel:
. Процессор Intel Itanium 2 — платформы на базе этого процессора при решении особо важных HPC-проблем обеспечивают высокую для продукции Intel производительность вычислений с плавающей запятой, масштабируемость и надежность. Поддерживая адресное пространство памяти объемом один петабайт, они подходят для создания симметричных масштабируемых многопроцессорных решений.
. 64-разрядный процессор Intel Xeon — системы на базе этого процессора позволяют создавать HPC-решения как для серверных, так и для одноранговых приложений.

В прошлом суперкомпьютерные системы проектировались в виде вертикальных фирменных комплексов, в которых микросхемы, процессоры, оборудование и программное обеспечение разрабатывались одной компанией, поэтому масштабирование не приносило экономической выгоды. За последние годы отраслевой подход к этой проблеме изменился благодаря введению открытых отраслевых стандартов и поддержке различных сетевых технологий — теперь компании могут сконцентрировать основное внимание на одном горизонтальном "слое" и вместе с отраслевыми партнерами работать над созданием полного и более экономичного решения. Отраслевые организации, занимающиеся поддержкой стандартов — к примеру, OpenMP или OpenIB — помогают стимулировать заинтересованность компаний отрасли в принятии открытых стандартов, цель которых — повышение производительности, масштабируемости и способности систем к взаимодействию при одновременном сокращении расходов и времени развертывания. Программа Intel Advanced Computing Center реализовать HPC- возможности на корпоративных системах. Ее основной задачей является ускорение внедрения инноваций в вычислительные системы массового производства путем сотрудничества с ведущими коммерческими и академическими партнерами, с тем чтобы разработать технологии, которые раньше были доступными только в фирменных суперкомпьютерах, а также интегрировать их в стандартные аппаратные и программные компоновочные блоки за счет расширения возможностей для создания прототипов устройств на базе новых технологий, сотрудничества с академическими, государственными и промышленными организациями по внедрению технологий, а также взаимодействия с экосистемой Intel в целях переноса технологий в массовую продукцию и интегрированные решения. В конечном итоге благодаря этим преимуществам предприятия смогут использовать возможности суперкомпьютеров с такой же легкостью и гибкостью, как и настольные системы.

Европейский центр ядерных исследований (CERN) в настоящее время работает над созданием крупнейшего в мире инструмента научных исследований — Большого андронного коллайдера (LHC) — ускорителя элементарных частиц с длиной окружности 27 км, который позволит узнать чуть больше о Вселенной в момент Большого Взрыва. Предполагается, что после намеченного на 2007 год ввода в строй LHC будет генерировать каждую секунду 1500 Мб данных. В течение трех последних лет CERN вместе с корпорацией Intel и другими партнерами работал над созданием системы CERN opencluster. Эта вычислительная grid-система, состоящая из серверов на базе процессоров Intel Itanium 2 и Intel Xeon, будет экспортировать данные экспериментов для специалистов в области ядерной физики всего мира в режиме реального времени. На протяжении последних 18 месяцев решение CERN opencluster играет жизненно важную роль в моделировании реальной работы системы LHC Computing Grid — в частности, благодаря ему службе Service Challenges удалось длительное время поддерживать скорость передачи данных между CERN и крупнейшими научными вычислительными центрами по всему миру на уровне 600 Мб/с.

Суперкомпьютер Columbia агентства NASA, введенный в эксплуатацию в октябре 2004 г., предоставляет средства интегрированной обработки данных и визуализации, а также среду хранения данных, которые призваны помочь NASA в достижении стратегических целей и реализации подходов к исследованию космического пространства. По оценкам, Columbia, представляющий собой интегрированный кластер из 20 взаимосвязанных 512- процессорных систем SGI Altix (всего 10.240 процессоров Intel Itanium 2), обеспечивает NASA 10-кратное увеличение производительности по сравнению с предыдущим суперкомпьютером. В настоящее время этот суперкомпьютер занимает четвертое место в списке самых мощных HPC-систем в мире (www.top500.org). Компания Toyota Motorsport Formula-1 стандартизировала свои системы, которые используются для проектирования автомобилей и инженерных расчетов, и создала кластер серверов на базе процессоров Intel Itanium 2 в целях совершенствования гоночных параметров и ускорения разработки автомобилей, принимающих участие в соревнованиях Формулы-1. Благодаря новой HPC-системе на протяжении двух последних сезонов Toyota оперативно и непрерывно улучшает процесс проектирования, поскольку должна соответствовать требованиям, предъявляемым к гоночной команде, когда в течение всего двух недель между официальными соревнованиями необходимо перепроектировать до 15% автомобиля, чтобы постоянно совершенствовать его скоростные характеристики и управляемость на трассе.


Компьютерная газета. Статья была опубликована в номере 23 за 2006 год в рубрике технологии

©1997-2022 Компьютерная газета