Суперкомпьютер

Материал из Национальной библиотеки им. Н. Э. Баумана
Последнее изменение этой страницы: 20:52, 9 января 2019.

Суперкомпьютер (с англ. — «Supercomputer», СуперЭВМ, сверхвычислитель) — специализированная вычислительная машина, имеющая наиболее высокий уровень производительности, чем большинство созданных на сегодняшний день вычислительных устройств. Современные суперкомпьютеры (см. рисунок 1) представляют собой большое число объединенных высокопроизводительных серверных компьютеров для достижения максимальной производительности в рамках подхода распараллеливания вычислительной задачи.

Рисунок 1 – Суперкомпьютер от IBM

Производительность суперкомпьютера измеряется в операциях с плавающей запятой в секунду (FLOPS) вместо миллиона инструкций в секунду (MIPS). В 2017 году был создан суперкомпьютер, который имеет производительность до ста квадриллионов FLOPS. По состоянию на 2018 год все наиболее быстрые суперкомпьютеры в мире работают под управлением операционных систем семейства Linux, однако в Китае, Соединенных Штатах, Европейском Союзе, Тайване и Японии производятся и дополнительные исследования для создания еще более быстрых и мощных суперкомпьютеров нового поколения.

Суперкомпьютеры применяются при решении различного рода задач в области вычислительных наук, квантовой механики, прогнозирования погоды, исследования климата, нефти и газа, молекулярного моделирования (вычисления структуры и свойства химических составов, биологических макромолекул, полимеров, и кристаллов), физические моделирования (такие как моделирование ранние моменты Вселенной, самолетов и космических аппаратов аэродинамики, детонации ядерного оружия и ядерного синтеза), а также в области криптоанализа. [Источник 1]

История появления

Впервые термин "суперкомпьютер" был использован в Нью-Йорке в 1929 году для обозначения большого количества упорядоченных папок, который IBM сделала для Колумбийского университета.

В 1956 году команды из Манчестерского университета в Великобритании начали разработку MUSE — микросекундного двигателя — с целью возможного создания компьютера, который мог бы работать со скоростью обработки, приближающейся к миллиону операций в секунду. В конце 1958 года Ферранти согласился начать сотрудничество с Манчестерским университетом, и вскоре компьютер был переименован в Atlas (см. рисунок 2) совместным предприятием, контролируемым Томом Килберном. Первый Atlas был официально введен в эксплуатацию 7 декабря 1962 года, почти за три года до того, как суперкомпьютер Cray и суперкомпьютер CDC 6600 были представлены в качестве одних из первых суперкомпьютеров в мире - и был признан самым мощным компьютером Англии. Было известно, что всякий раз, когда Atlas выходил в автономный режим, половина компьютерной мощности Соединенного Королевства терялась, он же впервые использовал виртуальную память и подкачку, рабочую память, объединив свою первичную основную память с дополнительной вторичной памятью барабана.

Рисунок 2 – Суперкомпьютер Atlas

В 1960 году Sperry Corporation решили создать компьютер, который был бы самым быстрым в мире. После четырех лет экспериментов Джима Торнтона, Дина Раша и около 30 других инженеров Сеймур Крэй закончил CDC 6600 (см. рисунок 3) в 1964 году. Крэй переключился с германиевых на кремниевые транзисторы, построенные Фэйрчайлдом, который использовал планарный процесс, поскольку у них не было недостатков кремниевых меза-транзисторов. Устройства запускались очень быстро, однако ограничение скорости света вызывало серьезные проблемы перегрева, которые были решены разработанной Рошем системой охлаждения. Учитывая, что CDC 6600 превосходил по мощности все компьютеры того времени примерно в 10 раз он был назван суперкомпьютером и все 100 экземпляров были проданы по 8 миллионов долларов каждый.

Рисунок 3 – Суперкомпьютер CDC 6600

CDC 6600 набирал скорость работы путем освобождения процессора (CPU) для обработки фактических данных путем использования периферийных вычислительных устройств. Компилятор Minnesota Fortran, разработанный Liddiard и Mundstock в Университете Миннесоты, позволил CDC 6600 выдерживать 500 килофлопс при стандартных математических операциях. В 1968 году Крей создал уже CDC 7600, который вновь стал самым быстрым компьютером в мире, однако не повторил успеха его предшественника — было продано только около 50 моделей CDC 7600. Крэй покинул CDC в 1972 году, чтобы запустить свою собственную компанию. Через два года после его ухода CDC представил публике star-100 , который был в три раза быстрее CDC 7600. Star-100 стала одной из первых машин, использующих векторную обработку - идея, появившаяся в 1964 году после разработки языка программирования APL.

Через четыре года после ухода из CDC, в 1976 году Крэй представил Krei-1, и он стал самым успешным суперкомпьютером в истории. Krei-1 использовал интегральные схемы с двумя затворами в чипе и векторный процессор, который имел ряд инноваций, таких как цепи, в которых скалярные и векторные регистры создают промежуточные результаты, которые могут быть использованы немедленно, без дополнительной опорной памяти,снижающей скорость вычислений. Krei x-Mr, разработанный Стивом Ченом, был выпущен в 1982 году с параллельными векторными процессорами с общей памятью с лучшей поддержкой сцепления и несколькими конвейерами памяти. Все три трубопровода с плавающей точкой на X-MP могут работать одновременно.

Cray-2 (см. рисунок 4), выпущенный в 1985 году, имел 4 компьютерных процессора с жидкостным охлаждением, полностью погруженных в бак Fluorinert. Его производительности достигала 1,9 гигафлопс, что является вторым результатом после М-13 (2,4 гигафлопс) до 1990 года, когда ETA-10g от CDC обогнал обоих. Cray 2 был совершенно новым дизайном и не использовал сцепление, имел высокую задержку памяти, но использовал много конвейера; компьютер был идеален для решения задач, требующих большого объема памяти. Стоит отметить, что в 1980-х годах стоимость разработки программного обеспечения в Cray равнялась стоимости аппаратного обеспечения.

Рисунок 4 – Суперкомпьютер Cray-2

Модель Y-MP, также разработанная Стивом Ченом, была выпущена в 1988 году в качестве дополнения к X-MP и может иметь восемь векторных процессоров 167 МГц с максимальной производительностью 333 мегафлопс на процессор. В конце 1980-х годов эксперимент Крея по использованию арсенид-галлиевых полупроводников в Cu-3 потерпел неудачу. Крей начал работать на массово параллельных компьютерах в начале 1990-х годов, но не успел завершить свой проект до гибели в 1996 году. Однако компания Cray Research позже создала такие компьютеры.

Cray-2, который установил границы суперкомпьютерных вычислений в середине-конце 1980-х годов, имел всего 8 процессоров. В 1990-х годах стали появляться суперкомпьютеры с тысячами процессоров.

SX-3/44R был анонсирован корпорацией NEC в 1989 году и через год заработал титул самой быстрой в мире 4-процессорной модели. Численный суперкомпьютер Fujitsu в аэродинамической трубе использовал 166 векторных процессоров, именно он занял первое место среди суперкомпьютеров в 1994 году. Он имел пиковую скорость 1,7 гигафлопс на процессор. Hitachi SR2201, новинка 1996 года, получил пиковую производительность 600 гигафлопс с использованием 2048 процессоров, подключенных через быструю трехмерную сеть.

В те же сроки Intel Paragon мог иметь от 1000 до 4000 процессоров Intel i860 в различных конфигурациях, и был признан самым быстрым в мире в 1993 году. Paragon был машиной MIMD, которая соединила обработчики через высокоскоростную двухмерную сетку, позволяющую процессам работать на отдельных узлах; связывающую через сообщение интерфейса. К 1995 году Cray также массово поставлял параллельные системы, например Cray T3E с более чем 2000 процессорами, используя трехмерное соединение.

Архитектура Paragon вскоре привела к суперкомпьютеру Intel ASCI Red в Соединенных Штатах, который занимал первое место суперкомпьютера до конца 20-го века в рамках инициативы Advanced Simulation and Computing. Это была также сетчатая массово-параллельная система с более чем 9000 вычислительных узлов и более 12 терабайт дискового пространства, но использовала стандартные процессоры Pentium Pro, которые можно было найти в повседневных персональных компьютерах.

Значительный прогресс был достигнут в первом десятилетии 21 века. Эффективность суперкомпьютеров продолжала расти, но не резко. Cray C90 (см. рисунок 5) использовал 500 киловатт мощности в 1991 году, в то время как к 2003 году ASCI Q использовал 3000 кВт, будучи в 2000 раз быстрее, увеличивая производительность на ватт в 300 раз.

Рисунок 5 – Суперкомпьютер Cray C90

В 2004 году суперкомпьютер Earth Simulator (см. рисунок 6), построенный NEC в Японском агентстве морской науки и техники (JAMSTEC), достиг 35,9 терафлопс, используя 640 узлов, каждый с восемью собственными векторными процессорами.


Рисунок 6 – Суперкомпьютер Earth Simulator в 2002 году

Архитектура суперкомпьютера IBM Blue Gene нашла широкое применение в начале 21-го века,. Подход Blue Gene несколько отличается тем, что он жертвует скоростью процессора для низкого энергопотребления, так что большее количество процессоров может использоваться при высоких температурах с воздушным охлаждением. Он может использовать более 60 000 процессоров с 2048 процессорами и соединяет их через трехмерное торическое соединение.

В июле 2011 года японский компьютер 8,1 Petaflop K стал самым быстрым в мире, используя более 60 000 процессоров Sparc64 VIIIfx, размещенных в более чем 600 шкафах. Тот факт, что K computer более чем в 60 раз быстрее, чем Earth Simulator, и что Earth Simulator занимает 68-е место в мире через семь лет после того, как занимает первое место, демонстрирует как быстрый рост максимальной производительности, так и повсеместный рост суперкомпьютерных технологий во всем мире. К 2014 году он выпал из списка, а к 2018 году компьютер K выпал из топ-10. [Источник 2] [Источник 3]

Система контроля температуры

На протяжении десятилетий управление температурным режимом работы оставалось ключевым вопросом для большинства централизованных суперкомпьютеров.Большое количество тепла, выделяемого системой, могло повлечь серьезные нарушения в работе суперкомпьютеров, а также сокращение срока службы других компонентов системы. Существуют различные подходы к управлению теплом, от перекачки фторсодержащих соединений через систему до гибридной системы охлаждения жидкости или воздуха с нормальной температурой кондиционирования. Типичный суперкомпьютер потребляет большое количество электроэнергии, почти вся из которой преобразуется в тепло, требующее охлаждения. Например, Tianhe-1A потребляет 4,04 мегаватта (МВт) электроэнергии, следовательно затраты на электроэнергию и охлаждение системы могут быть весьма значительными. Вопросы тепловой мощности и диссипации мощности ЦП в суперкомпьютерах превосходят вопросы традиционных технологий охлаждения компьютеров.

Упаковка тысяч процессоров вместе неизбежно создает значительное количество тепловой плотности, с которой необходимо считаться. Cray 2 был оснащен жидкостным охлаждением и использовал Fluorinert.Однако такой подход к охлаждению был непрактичен для многоквартирных систем на базе готовых процессоров, а в System X совместно с компанией Liebert была разработана специальная система охлаждения, сочетающая кондиционирование воздуха с жидкостным охлаждением.

В IBM сознательно использовали маломощные процессоры для работы с плотностью тепла. IBM Power 775, выпущенный в 2011 году, имеет плотно упакованные элементы, требующие водяного охлаждения. Система IBM Aquasar использует охлаждение горячей водой для достижения энергоэффективности, вода также используется для обогрева зданий.

По состоянию на 2015 год многие существующие суперкомпьютеры обладают большей пропускной способностью инфраструктуры, чем фактический пиковый спрос разработчиков машин, как правило, консервативно проектируют инфраструктуру питания и охлаждения для обработки больше, чем теоретическая пиковая электрическая мощность, потребляемая суперкомпьютером . Конструкции будущих суперкомпьютеров ограничены по мощности - тепловая расчетная мощность суперкомпьютера в целом, объем, который может обрабатывать инфраструктура питания и охлаждения, несколько больше ожидаемой нормальной потребляемой мощности, но меньше теоретической пиковой потребляемой мощности электронного оборудования. [Источник 2]

Принципы организации суперкомпьютеров

Базовая кластерная архитектура

Основополагающим принципом создания суперкомпьютеров является построение масштабируемой кластерной архитектуры, реализуемой на классических кластерах из вычислительных узлов на основе компонент широкого применения (стандартных микропроцессоров, модулей памяти, жестких дисков и материнских плат, в том числе с поддержкой SMP). Кластерный архитектурный уровень представляет собой тесно связанную сеть (кластер) вычислительных узлов, работающих под управлением некоторой операционной системы.

На кластерном уровне с использованием Т-системы и MPI эффективно реализуются фрагменты со сложной логикой вычисления, с крупноблочным (явным статическим или скрытым динамическим) параллелизмом. Фрагменты с простой логикой вычисления, с конвейерным или мелкозернистым явным параллелизмом, с большими потоками информации, требующими обработки в реальном режиме времени, на кластерных конфигурациях реализуются менее эффективно. Для организации параллельного исполнения задач с подобными фрагментами наиболее адекватна модель потоковых вычислений (data-flow). Кластерная архитектура является открытой и масштабируемой, поскольку не определяет жестких ограничений к программно-аппаратной платформе узлов кластера, топологии вычислительной сети, конфигурации и диапазону производительности.

Для организации взаимодействия вычислительных узлов суперкомпьютера в его составе используются различные сетевые (аппаратные и программные) средства, в совокупности образующие две системы передачи данных:

  1. Системная сеть кластера (СС) или System Area Network (SAN) объединяет узлы данного уровня в кластер. Системная сеть кластера обеспечивает масштабируемость кластерного уровня суперкомпьютера, а также пересылку и когерентность данных во всех вычислительных узлах кластерного уровня суперкомпьютера. Системная сеть кластера строится на основе специализированных высокоскоростных линков класса SCI, Myrinet, cLan, Infiniband и др., предназначенных для эффективной поддержки кластерных вычислений и соответствующей программной поддержки на уровне ОС Linux и систем организации параллельных вычислений (Т-система, MPI);
  2. вспомогательная сеть суперкомпьютера (ВС) с протоколом TCP/IP объединяет узлы кластерного уровня в обычную (TCP/IP) локальную сеть (TCP/IP LAN). Вспомогательная сеть выстраивается на основе широко используемых сетевых технологий класса Fast Ethernet, Gigabit Ethernet и др. и предназначена для управления системой, подключения рабочих мест пользователей, интеграции суперкомпьютера в локальную сеть предприятия и/или в глобальные сети. Кроме того, данный уровень может быть использован и системой организации параллельных кластерных вычислений (Т-система, MPI) для вспомогательных целей. [Источник 4]

Операционная система

С конца 20-го века операционные системы суперкомпьютеров претерпели серьезные преобразования, основанные на изменениях в архитектуре суперкомпьютеров.Ранние операционные системы были специально адаптированы к каждому суперкомпьютеру для увеличения скорости, современная же тенденция заключается в переходе от внутренних операционных систем к разработкам общего программного обеспечения, такого как Linux.

Современные массивно-параллельных суперкомпьютеры, как правило, оснащены различными операционными системами на разных узлах. Например, с помощью небольшой и эффективной микроядерной системой на вычислительных узлах, а более крупной системой типа Linux-производных на сервере и узлов ввода-вывода.

В то время как в традиционной многопользовательской компьютерной системе планирование заданий является, по сути, задачей для обработки и периферийных ресурсов, в массово параллельной системе система управления заданиями должна управлять распределением как вычислительных, так и коммуникационных ресурсов, а также корректно справляться с неизбежными аппаратными сбоями, когда присутствуют десятки тысяч процессоров.

Рисунок 7 – Операционные системы суперкомпьютеров

Хотя большинство современных суперкомпьютеров используют операционную систему Linux (см. рисунок 7), каждый производитель имеет свою собственную производную Linux, и не существует отраслевого стандарта, поскольку различия в аппаратных архитектурах требуют изменений для оптимизации операционной системы для каждой аппаратной конструкции. [Источник 5]

Программные средства передачи сообщений

Параллельные архитектуры суперкомпьютеров часто диктуют необходимость использования специальных средств обработки. Программные средства для распределенной обработки включают стандартные API, такие как MPI и PVM, VTL и программные решения на основе открытого исходного кода, такие как Beowulf.

В наиболее распространенном сценарии используются такие среды, как PVM и MPI для слабо связанных кластеров и OpenMP для тесно скоординированных компьютеров с общей памятью. Значительные усилия требуются для оптимизации алгоритма для характеристик соединения машины, на которой он будет работать; цель состоит в том, чтобы предотвратить любой из процессоров тратить время на ожидание данных от других узлов. GPGPU имеют сотни процессорных ядер и программируются с использованием моделей программирования, таких как CUDA или OpenCL.

Кроме того, довольно сложно отлаживать и тестировать параллельные программы. Для тестирования и отладки таких приложений необходимо использовать специальные методы.

Метакластеры

Отдельные кластеры могут быть объединены в единую кластерную конфигурацию – кластер высшего уровня или метакластер. Метакластерный принцип реализует распределенные метакластерные конфигурации на базе локальных или глобальных сетей передачи данных. При этом, естественно, уменьшается степень связности подкластеров метакластерной конфигурации. Системное программное обеспечение метакластера обеспечивает возможность реализации гетерогенных систем, включающих подкластеры различной архитектуры на различных программно-аппаратных платформах. Одним из перспективных программных продуктов, с использованием которого возможна реализация метакластерных конфигураций на подкластерах с различными программно-аппаратными платформами, является IMPI (Interoperable Message Passing Interface). IMPI реализует стандартизованный протокол, обеспечивающий взаимодействие различных реализаций MPI. Это позволяет выполнять общую задачу на различной аппаратуре с использованием настраиваемых поставщиком различных реализаций MPI на каждом узле кластерной конфигурации соответствующего уровня иерархии. Такая возможность полезна в случаях, когда объем вычислений задачи слишком велик для одной системы или когда разные части задачи оптимально выполнять на разных реализациях MPI. IMPI определяет только протоколы, необходимые для взаимодействия различных реализаций MPI, а также может использовать собственные высокопроизводительные протоколы этих реализаций. Задачи реализации метакластерной архитектуры:

  • обеспечение реально достижимой и экономически эффективной масштабируемости архитектурных решений;
  • создание единого информационного пространства на базе распределенных сетевых суперкомпьютерных метакластерных конфигураций;
  • обеспечение живучести суперкомпьютерных систем;
  • объединение суперкомпьютерных конфигураций с разными архитектурными и программно-аппаратными платформами (гибридная метакластерная архитектура) в единую метакластерную суперкомпьютерную систему;
  • создание глобальных сетевых конфигураций с гибридной метакластерной архитектурой терафлопового диапазона. [Источник 4]

Распределенные вычисления

Конъюнктурный подход

Оппортунистические суперкомпьютеры — это форма сетевых grid-вычислений, при которой "супер-виртуальный компьютер" в системе нескольких слабо связанных вычислительных машин выполняет масштабные вычислительные задачи. Grid-вычисления были применены к ряду крупномасштабных параллельных задач, требующих суперкомпьютерных возможностей производительности. Однако базовые grid- и облачные вычисления, основанные на добровольных вычислениях, не могут справиться с традиционными суперкомпьютерными задачами, такими как жидкостно-динамическое моделирование.

Самой быстрой системой grid-вычислений является проект распределенных вычислений Folding@home (F@h). F@h сообщил о 101 PFLOPS процессорной мощности x86 по состоянию на октябрь 2016 года. Из них более 100 PFlop-операций выполняются клиентами, работающими на различных графических процессорах, а остальные — на различных системах. Также на платформе Berkeley Open Infrastructure for Network Computing (BOINC) размещается ряд проектов распределенных вычислений. По состоянию на февраль 2017 года BOINC зарегистрировал вычислительную мощность более 166 петафлопс через более 762 тысяч активных компьютеров (хостов) в сети.

По состоянию на октябрь 2016 года, Great Internet Mersenne Prime Search's (GIMPS) представил проект вычислений при помощи простого числа Мерсенна, поиск с использованием которой достиг около 0,313 PFLOPS более чем на 1,3 миллиона компьютеров. Интернет-сервер PrimeNet поддерживает конъюнктурный GIMPS, один из самых ранних и успешных проектов grid-вычислений с 1997 года.

Квази-конъюнктурный подход

Квази-конъюнктурный подход суперкомпьютерных вычислений представляет собой форму распределенных вычислений, в которой "супер виртуальный компьютер" в сети нескольких объединенных компьютеров, удаленных физически друг от друга, выполняет вычислительные задачи, которые требуют огромной вычислительной мощности. Подобный вычислительный метод призван обеспечить более высокое качество обслуживания, чем оппортунистические grid-вычисления за счет достижения большего контроля над назначением задач на распределенные ресурсы и использования информации о доступности и надежности отдельных систем внутри суперкомпьютерной сети. Однако квази-оппортунистическое распределенное выполнение требовательного программного обеспечения параллельных вычислений в сетках должно быть достигнуто путем реализации особых соглашений о распределении, подсистем совместного распределения, механизмов распределения связи с учетом топологии, отказоустойчивости библиотек передачи сообщений и предварительного кондиционирования данных [Источник 2] [Источник 3] .

HPC в облаке

Облачные вычисления с их недавним и быстрым расширением и развитием привлекли внимание пользователей и разработчиков HPC в последние годы. Облачные вычисления пытаются предоставить HPC-as-a-Service точно так же, как и другие формы услуг, доступных в настоящее время в облаке, такие как программное обеспечение как услуга, платформа как услуга и инфраструктура как услуга. Пользователи HPC могут извлечь выгоду из облака в различных ракурсах, таких как масштабируемость, ресурсы по требованию, быстро и недорого. С другой стороны, перемещение приложений HPC также сопряжено с рядом проблем. Хорошими примерами таких проблем являются издержки виртуализации в облаке, мультитенантность ресурсов и проблемы задержки сети. Много исследований в настоящее время делается, чтобы преодолеть эти проблемы и сделать HPCinthecloud более реалистичной возможностью [Источник 2].

Самые быстрые суперкомпьютеры в мире

Сегодня суперкомпьютеры все больше и больше совершенствуются. Так, все больше стран разрабатывают быстрые и производительные суперкомпьютеры для различных задач. Рассмотрим те из них, которые на сегодня являются самыми быстрыми.

В США сегодня существует суперкомпьютер Storm CS Cray (Mystery), месторасположение которого является секретным объектом. Цели его существования неизвестны, поскольку направлены на обеспечение обороны и безопасности страны и проведение высокотехнологичных исследований . Обеспечивая 2386.42 мегафлопс на 1 ватт мощности, этот суперкомпьютером считается самым энергоэффективнным. Номинальная мощность равна 3.57 петафлопс. В данном комплексе используются процессоры Intel Xeon E5-2660v2 10C 2.2ГГц, а суммарное число ядер составляет 72800.

Рисунок 8 – Суперкомпьютер Vulkan

Суперкомпьютер Vulcan (см. рисунок 8) производства IBM из Ливерморской национальной лаборатории Калифорнийского университета США представлен в 2013 году. Целью его проектировки и применения является использование в работе различных научных проектов Livermore's High Performance Computing (HPC) Innovation Center, который в свою очередь академически сотрудничает с Администрацией по Ядерной безопасности. Обеспечивая 4293.31 TFlop/s, этот суперкомпьютером использует процессор Power BQC 16C 1.6GHz и работает под управлением операционной системы Linux. Суммарное число ядер составляет 393216.

Рисунок 9 – Суперкомпьютер JUQUEEN

Суперкомпьютер JUQUEEN (см. рисунок 9) был разработан компанией IBM специально для Исследовательского центра Юлиха, Германия. Данный суперкомпьютер, основанный на базе Blue Gene/P, успешно заменил своего предшественника JUBL, и в момент активации стал вторым по производительности в мире. В момент активации JUQUEEN стал вторым по производительности суперкомпьютером в мире. Суперкомпьютер построен на той же основе, что и Vulcan, однако имеет более высокие показатели производительности — 5008.86 TFlop/s.

Рисунок 10 – Суперкомпьютер Stampede

Stampede (см. рисунок 10) является еще одним компьютером из США, а именно Техасского центра продвинутых вычислений в Остине. Stampede является детищем компании Dell, имеющим процессор Xeon E5-2680 8C 2.7GHz и работающий под управлением операционной системой Linux. суперкомпьютера составляет 5168.11 TFlop/s.

Рисунок 11 – Суперкомпьютер Piz Daint

Piz Daint (см. рисунок 11) был создан и запущен компанией Cray Inc.в ноябре 2013 года в швейцарском городе Лугано, где находится Швейцарский национальный центр суперкомпьютеров (Swiss National Supercomputing Centre / CSCS), основанный в 1991 году. На современном этапе данный суперкомпьютер используется для большого числа различных проектов, в основном в сфере компьютерного моделирования. Процессор, используемый Piz Daint, Xeon E5-2670 8C 2.6GHz функционирует под управлением операционной системы Cray Linux Environment и обеспечивает производительность 6271 TFlop/s.

Рисунок 12 – Суперкомпьютер Mira

Mira (см. рисунок 12) — суперкомпьютер IBM Blue Gene / Q, что располагается в здании Argonne Leadership Computing. Оснащен 786432 ядрами, 768 терабайт памяти и имеет пиковую производительность 10 петафлопс. 49152 вычислительных узлов (compute nodes) оборудованы процессором PowerPC A2 1600 МГц, содержащим 16 ядер, по 4 аппаратных потока в каждом. Частота процессора — 1,6 ГГц. 16 гигабайт памяти DDR3. Семнадцатое ядро используется для связи между библиотеками. Конфигурация интерконнекта 5D от IBM со скоростью chip-to-chip соединения в 2 Гб/с объединяет узлы, что позволяет значительно увеличить вычислительные возможности путем уменьшения среднего числа промежуточных узлов и задержек между вычислительными узлами. Система Blue Gene / Q также имеет систему из 4 модулей операций с плавающей запятой (FPU), которую можно использовать для выполнения скалярных вычислений с плавающей точкой, 4-мерных инструкций ОКМД (одиночный поток команд, множественный поток данных) или 2-мерных сложных арифметических вычислений ОКМД. Эти модули операций с плавающей запятой (FPU) обеспечивают более высокую вычислительную производительность одного линейного потока для некоторых приложений. Mira предоставляет доступ к файловой системе GPFS емкостью 24 ПБ и пропускной способностью 240 Гб/с. Пользователи также получат доступ к HPSS архивам данных и Tukey, новому кластеру анализа и визуализации. Все вышеупомянутые ресурсы доступны для использования через быстродействующие сети, включая ESnet, недавно модернизированную до 100 Гб/с.

Рисунок 13 – Суперкомпьютер K Computer

K Computer (см. рисунок 13) представляет собой суперкомпьютер от компании Fujitsu, запущенный в 2011 году. Расположен в Институте физико-химических исследований города Кобе, Япония. Суперкомпьютер оснащен 705024 ядрами, памятью 1410048 GB и процессором SPARC64 VIIIfx 8C 2GHz. Работает под управлением операционной системы Linux Производительность суперкомпьютера составляет 10510 TFlop/s.

Рисунок 14 – Суперкомпьютер Sequoia

Sequoia (см. рисунок 14) — суперкомпьютер, созданный компанией IBM в июне 2012 года — замыкает тройку лидеров среди самых быстрых суперкомпьютеров в мире. Используется Национальной администрации по ядерной безопасности для программы Advanced Simulation and Computing Program и демонстрирует производительность 17173.2 TFlop/s.

Рисунок 15 – Суперкомпьютер Titan

Суперкомпьютер Titan (см. рисунок 15) от компании Cray Inc. был выпущен в октябре 2012 года как обновление предыдущего суперкомпьютера Jaguar. Расположен в Национальной лаборатории Ок-Ридж Университета Теннесси в США. По большей части мощности Титана используются для программы Министерства энергетики США Innovative and Novel Computational Impact on Theory and Experiment program (INCITE). Данный суперкомпьютер позиционировался как аппарат для обработки любых проектов, однако из-за большого числа заявок было решено ограничить их количество до 6. Среди них: процессы сгорания топлива, наука о материалах, атомная энергия и изменения климата.Суперкомпьютер Titan является вторым по производительности в мире и демонстрирует 17590 TFlop/s.

Рисунок 16 – Суперкомпьютер Tianhe-2

Суперкомпьютер Tianhe-2 (см. рисунок 16), спроектированный в Китае компанией Inspur совместно с Оборонным научно-техническим университетом Народно-освободительной армии Китайской Народной Республики, был запущен в 2013 году. Строительство этого гиганта обошлось в 200-300 миллионов долларов. Более 1300 ученых и инженеров трудились над созданием Tianhe-2, что в переводе означает «Млечный путь-2». Titan оснащен 3120000 ядрами и 1024000 GB и работает на операционной системе Kylin Linux. Производительность суперкомпьютера составляет 33862.7 TFlop/s и сегодня это наилучший результат во всем мире. [Источник 6] [Источник 7]

Применение

Суперкомпьютеры используются во всех сферах, где для решения задачи применяется численное моделирование; там, где требуется огромный объём сложных вычислений, обработка большого количества данных в реальном времени, или решение задачи может быть найдено простым перебором множества значений множества исходных параметров.

Совершенствование методов численного моделирования происходило одновременно с совершенствованием вычислительных машин: чем сложнее были задачи, тем выше были требования к создаваемым машинам; чем быстрее были машины, тем сложнее были задачи, которые на них можно было решать. Поначалу суперкомпьютеры применялись почти исключительно для оборонных задач: расчёты по ядерному и термоядерному оружию, ядерным реакторам. Потом, по мере совершенствования математического аппарата численного моделирования, развития знаний в других сферах науки — суперкомпьютеры стали применяться и в «мирных» расчётах, создавая новые научные дисциплины, как то: численный прогноз погоды, вычислительная биология и медицина, вычислительная химия, вычислительная гидродинамика, вычислительная лингвистика и проч., — где достижения информатики сливались с достижениями прикладной науки.

Ниже приведён далеко не полный список областей применения суперкомпьютеров:

  • Математические проблемы: криптография; статистика.
  • Физика высоких энергий: процессы внутри атомного ядра, физика плазмы, анализ данных экспериментов, проведённых на ускорителях; разработка и совершенствование атомного и термоядерного оружия, управление ядерным арсеналом, моделирование ядерных испытаний; моделирование жизненного цикла ядерных топливных элементов, проекты ядерных и термоядерных реакторов.
  • География: прогноз погоды, состояния морей и океанов; предсказание климатических изменений и их последствий; исследование процессов, происходящих в земной коре, для предсказания землетрясений и извержений вулканов; анализ данных геологической разведки для поиска и оценки нефтяных и газовых месторождений, моделирование процесса выработки месторождений; моделирование растекания рек во время паводка, растекания нефти во время аварий.
  • Вычислительная биология: фолдинг белка; расшифровка ДНК.
  • Вычислительная химия и медицина: изучение строения вещества и природы химической связи как в изолированных молекулах, так и в конденсированном состоянии; поиск и создание новых лекарств.
  • Физика: газодинамика (турбины электростанций, горение топлива, аэродинамические процессы для создания совершенных форм крыла, фюзеляжей самолетов, ракет, кузовов автомобилей); гидродинамика (течение жидкостей по трубам, по руслам рек); материаловедение (создание новых материалов с заданными свойствами, анализ распределения динамических нагрузок в конструкциях, моделирование крэш-тестов при конструировании автомобилей).
  • В качестве сервера при создании искусственных нейронных сетей.
  • Создание принципиально новых способов вычисления и обработки информации: Квантовый компьютер, Искусственный интеллект. [Источник 2]

Еще одним прорывом в использовании суперкомпьютеров является конструирование машин, направленных на максимально точное воспроизведение «архитектуры» головного мозга человека. Первый такой суперкомпьютер, запущенный в ноябре 2018 года называется Spiking Neural Network Architecture (SpiNNaker) и он может выполнять более, чем 200 миллионов операций в секунду, а каждая из микросхем имеет 100 миллионов деталей. Машина собрана на базе Школы компьютерных наук Манчестерского университета, где разрабатывалась около 30 лет и потребовала на свое создание 15 миллионов фунтов стерлингов.SpiNNaker может в реальном времени моделировать поведение человеческих нейронов и он уникален тем, что в отличие от традиционных компьютеров, он не передает большие объемы информации из точки А в точку Б, а рассылает данные единовременно в тысячи разных направлений. SpiNNaker отличается от способа работы обычных компьютеров, поскольку работает скорее как мозг, чем как традиционный компьютер. Устройство использует миллиард ядер в одном компьютере, которые и моделируют работу мозга. Уже сейчас этот нейроморфный суперкомпьютер поможет понять то, как функционирует наша ЦНС, а также даст возможность проводить масштабные симуляции, недоступные на традиционных машинах, несмотря на это что эквивалентен всего лишь 1% человеческого мозга. [Источник 8] [Источник 4]

Top500

Многие страны в современном мире стремятся создать и использовать суперкомпьютеры. Однако, с 1993 года все суперкомпьютеры ранжируются в списке Top500 по результатам специального теста LINPACK, основанном на скорости решения системы линейных алгебраических уравнений, являющейся общей задачей для численного моделирования.

На сегодняшний день суперкомпьютеры географически распределены следующим образом: 213 суперкомпьютеров находится в Азии, 175 в Америке и 104 в Европе. Абсолютным рекордсменом по обладанию наиболее эффективными и мощными суперкомпьютерами является Китай, где с 2013 года разрабатываются и используются в различных целях рекордсмены рейтинга Top500.

Распределение по количеству суперкомпьютеров в разных странах мира в июне 2018 года:

  • Китай — 206
  • США — 124
  • Япония — 36
  • Великобритания — 22
  • Германия — 21
  • Франция — 18
  • Нидерланды - 9
  • Ю.Корея - 7
  • Ирландия - 7
  • Канада - 6
  • другие страны — 44 (включая Россию - 4, пик количества суперкомпьютерных систем в России пришелся на июнь 2011 года - 12 шт.).

На всех используемых суперкомпьютерах на момент 2018 года используется операционная система Linux. Linux стал использоваться на всех суперкомпьютерах списка с ноября 2017 года, вытеснив последним операционную систему UNIX.

Из Linux-систем 64,2 % не детализируют дистрибутив, 12,6 % используют CentOS, 8,6 % — Cray Linux, 5 % — SUSE, 3 % — RHEL, 0,6 % — Scientific Linux, 0,6 % — Ubuntu.

Источники

  1. Суперкомпьютер/Википедия. [2018—2018]. URL: https://ru.wikipedia.org/wiki/Суперкомпьютер (дата обращения: 09.12.2018).
  2. 2,0 2,1 2,2 2,3 2,4 Supercomputer/Wikipedia. [2018—2018]. URL: https://en.wikipedia.org/wiki/Supercomputer (дата обращения: 09.12.2018).
  3. 3,0 3,1 В. Воеводин. Суперкомпьютеры: вчера, сегодня, завтра/Наука и жизнь. URL: https://www.nkj.ru/archive/articles/7365/ (дата обращения: 09.12.2018).
  4. 4,0 4,1 4,2 С.В. Абламейко, С.М. Абрамов, В.В. Анищенко, Н.Н. Парамонов, О.П. Чиж. Принципы построения суперкомпьютеров семейства "Скиф" / Объединенный институт проблем информатики Национальной академии наук Беларуси, Минск; Институт программных систем Российской академии наук, Переславль-Залесский. URL: http://skif.pereslavl.ru/psi-info/rcms/rcms-publications/2004-rus/23-04.pdf (дата обращения: 09.01.2018).
  5. Стивен Воан-Николс. Быстро, быстрее, еще быстрее: Linux правит бал в мире суперкомпьютеров / itWeek. URL: https://www.itweek.ru/infrastructure/article/detail.php?ID=140115 (дата обращения: 09.12.2018).
  6. habit. Самые быстрые суперкомпьютеры мира/Блог компании ua-hosting.company/Хабр. URL: https://habr.com/company/ua-hosting/blog/244593/ (дата обращения: 09.12.2018).
  7. А.Борзенко. Суперкомпьютеры/Виртуальный компьютерный музей. URL: http://www.computer-museum.ru/histussr/super_comp.htm (дата обращения: 09.12.2018).
  8. В. Кузнецов. Впервые запущен самый мощный суперкомпьютер, имитирующий работу человеческого мозга/Hi-News.ru. URL: https://hi-news.ru/technology/vpervye-zapushhen-samyj-moshhnyj-superkompyuter-imitiruyushhij-rabotu-chelovecheskogo-mozga.html (дата обращения: 09.12.2018).