DECgroup Inc


Высокопроизводительные вычисления

Концепция абстрактной вычислительной машины, предложенная Аланом Тьюрингом для формализации понятия алгоритма, стала отправной точкой в эпохе развития современной компьютерной техники. Colossus – стала первой электронно-вычислительной машиной, разработанной Аланом Тьюрингом в 1943г.

Производительность суперкомпьютерной техники

В настоящее время персональные компьютеры достигли производительности порядка нескольких десятков GFLOPS (109 FLOPS — число вещественных операций, выполняемых компьютером за 1с.). В начале второго тысячелетия, экстраполируя данные проекта Top500, созданного для формирования списка пятисот самых высокопроизводительных компьютеров мира можно было выразить уверенность в том, что компьютерная техника достигнет производительности в PetaFLOPS (1015) уже к 2010г. Однако уже в конце 2008г. новый суперкомпьютер, установленный в Национальной лаборатории в Лос Аламосе, достиг производительности 1.1 PetaFLOPS, преодолев очередной технологический барьер.

Эволюция супер- и персональных компьютеров Рис.1. Эволюция супер- (1) и персональных (2) компьютеров.

На рис.1 представлена эволюция производительности как параллельных (1), так персональных вычислительных систем (2). Особенно оптимистичным выглядит прогноз для кластерных систем, считающимися наиболее эффективными на сегодняшний день по уровню соотношения цена/качество для проведения инженерных и научных численных исследований. Другое, не менее интересное наблюдение, следующее из рис.1, заключается в том, что интерполяции (1-2) фактически параллельны друг другу, что и не удивительно, поскольку, параллельные вычислительные системы строятся на основе компонентной базы персональных компьютеров. Также следует отметить, что к 2010г. тактовая частота процессоров достигла своего технологического предела в 3-4 GHz и перестала расти (тепловыделение пропорционально тактовой частоте в кубе). Как следствие, дальнейшее значительное увеличение производительности вычислительных систем в настоящее время возможно только за счет массивного параллелизма.

Для формирования списка Top500 используется тест Linpack. Кроме пиковой (или теоретической) производительности Rpeak для каждой системы указывается величина Rmax равная производительности компьютера на тесте Linpack с матрицей максимального для данного компьютера размера Nmax. Как показывает анализ представленных данных, величина Rmax составляет 50-70% от значения Rpeak.

Другим существенным моментом является возможность программного обеспечения эффективно использовать имеющиеся параллельные вычислительные ресурсы. Тестирование показало, что масштабируемость (или эффективность) современных CFD пакетов, таких как ANSYS CFD® и OpenFOAM®, для расчетов турбулентных течений (например, с помощью модели крупных вихрей) составляет порядка 50-70%. Некоторые результаты можно посмотреть здесь.

Компьютерное моделирование и параллельные вычисления (High performance computing)

Широкое распространение пакетов инженерного анализа для задач механики сплошных сред вместе с колоссальным прогрессом в развитии суперкомпьютерной техники и персональных компьютеров создает иллюзию, что любые задачи могут быть решены. Этому в немалой степени способствуют сами производители пакетов, а также определенная «неискушенность» покупателей, ошибочно представляющих, что пакеты помогут снять все их проблемы и заменить дорогостоящие физические эксперименты.

На самом деле используемые каталоги математических моделей далеки от совершенства, а базы данных по ним неполны, поскольку научные исследования по ним еще продолжаются. Более того, приемлемость математических моделей для решения сложных задач является предметом отдельного изучения. Также не определены четко границы применимости большинства моделей. Появление новых вычислительных мощностей позволяет моделировать все более сложные динамические системы, объединяющих в себе множество взаимодействующих друг с другом математических моделей (например, течения в химически-реагирующих средах). В таких системах появляются эффекты, приводящие к тому, что при объединении отдельных элементов (моделей) в систему у нее возникают новые (часто неожиданные свойства), не вытекающие из свойств отдельных элементов.

Таким образом, важнейший вопрос любого численного исследования — это оценка адекватности численных прогнозов. Чтобы ответить на него, надо произвести тестирование (верификацию и валидизацию) пакета на совокупности задач, для которых имеются надежные экспериментальные и расчетные данные.