Чому дорівнює 1 петафлоп у гігабайтах. Суперкомп'ютер із продуктивністю петафлопс вже не за горами. Огляд продуктивності реальних систем

💖 Подобається?Поділися з друзями посиланням

Обчислювальна техніка розвивається семимильними кроками. Тому цілком ймовірно, що за той момент, коли друкувалася дана стаття, світло побачило нового «монстра обчислень». Ми хочемо познайомити вас десяткою лідерів на листопад 2012 року.

1. Titan (США) - 17,59 петафлопс

Перше місце посів американський суперкомп'ютер Titan, створений за участю компаній Cray та Nvidia. Він знаходиться у Національній лабораторії Оук-Рідж у штаті Теннессі, яка належить міністерству енергетики США. У секунду Titan може виконувати 17,59 квадрильйона операцій з плаваючою точкою, що еквівалентно продуктивності 17,59 петафлопс.

Titan складається з 18688 вузлів. Він створений на архітектурі гібридного типу: кожен вузол суперкомп'ютера входить 16-ядерний процесор AMD Opteron і графічний прискорювач Nvidia Tesla K20X. Використання графічних процесорів дозволяє зменшити енергоспоживання системи.

Titan використовують для проектування енергоефективних двигунів транспортних засобів, моделювання наслідків зміни клімату та вивчення біопалива. Оук-Рідж надає суперкомп'ютер в оренду іншим дослідницьким організаціям.

2. Sequoia (США) - 16,32 петафлопс

Суперкомп'ютер Sequoia, теж належить міністерству енергетики США і працює на 1572864 ядрах. Sequoia розробляється компанією IBM для Національної адміністрації з ядерної безпеки у рамках програми передових обчислень та моделювання.

Sequoia використовуватиметься в основному для моделювання ядерних вибухів, замінивши суперкомп'ютери ASC Purple та Blue Gene/L, які працюють у Ліверморській національній лабораторії. Також Sequoia зможе вирішувати завдання для потреб астрономії, енергетики, вивчення людського геному та зміни клімату.

Sequoia побудована за архітектурою Blue Gene/Q, що є останнім поколінням у лінійці суперкомп'ютерних архітектур Blue Gene. Суперкомп'ютер складається з 98304 обчислювальних вузлів і має 1,6 Пб пам'яті в 96 стійках, розташованих на площі в 300 кв. м. Використовуються 16-ти або 8-ми ядерні центральні процесори Power Architecture, виготовлені за техпроцесом 45 нм.

Компанія IBM створила комп'ютер, який може вирішувати за секунду 20 квадрильйонів різноманітних математичних операцій. А це означає, що якби 7 мільярдів людей взяли б калькулятори і почали робити математичні розрахунки одночасно без перепочинків, усі 24 години на добу, усі 365 днів, то пішло б на ці операції до 320 років, не менше. Але тепер так чинити не потрібно, бо з'явилася Sequoia. Комп'ютер проведе подібні розрахунки лише за годину.

3. K computer (Японія) - 10,51 петафлопс

K computer – японський суперкомп'ютер виробництва компанії Fujitsu, запущений у 2011 році в Інституті фізико-хімічних досліджень RIKEN у місті Кобе. Назва походить від японської приставки «кей», що означає 10 квадрильйонів і одночасно означає столицю, тобто натяк на «головний комп'ютер»

Станом на червень 2011 року система мала 68544 8-ядерних процесора SPARC64 VIIIfx, розміщених у 672 обчислювальних стійках, що становило 548352 обчислювальних ядра, вироблених компанією Fujitsu за 45-нанометровим техпроцесом. Суперкомп'ютер використовує водяне охолодження, що дозволило знизити споживання енергії та збільшити щільність компонування.

4. Mira (США) - 8.16 петафлопс

За допомогою суперкомп'ютера IBM Blue Gene/Q (Mira) американські вчені спробують змоделювати Всесвіт. Вчені сподіваються отримати відповіді на питання, що їх цікавлять, стосовно виникнення Всесвіту. На комп'ютері передбачається змоделювати і послідовно прорахувати 12 млрд років, що минули з Великого вибуху.

Суперкомп'ютер складається з 50 тис. обчислювальних вузлів, у кожному і яких міститься 16 ядер. Комп'ютер використовує величезне сховище інформації обсягом 70 петабайт та рідинну систему охолодження. Mira здатний виконувати 8 квадрильйонів операцій на секунду.

5. JuQueen (Німеччина) - 5,9 петафлопс

У німецькому місті Юліх (федеральна земля Північний Рейн-Вестфалія) офіційно запущено найпотужніший у Європі суперкомп'ютер JuQueen. Його продуктивність дорівнює 5,9 петафлопс або 5,9 тис. трильйонів операцій за секунду.

Процесори JuQueen мають загалом майже 459 тис ядер. При цьому розроблені вони були із застосуванням енергозберігаючих технологій. Охолоджуватиметься система за допомогою циркулюючих потоків води температурою 18 градусів. Фахівці вказують, що ця машина приблизно в 100 тис разів потужніша за найсучасніший персональний комп'ютер.

Розробкою ЕОМ займалася компанія IBM. Фінансувався проект із коштів найбільшої наукової організації ФРН - Центру Гельмгольця, федерального бюджету, а також із скарбниці Північного Рейну-Вестфалії. Точна сума не розголошується.

6. SuperMUC (Німеччина) - 2,9 петафлопс

SuperMUC — другий за потужністю суперкомп'ютер Європи був запущений наприкінці червня 2012 року. Суперкомп'ютер був створений для вирішення складних наукових завдань у галузі фізики та динаміки рідин. Машина працює на платформі SUSE Linux Enterprise Server. SuperMUC на платформі System X iDataPlex компанії IBM оснащений більш ніж 155 000 ядрами процесорів, які забезпечують сукупно максимальну продуктивність 3 петафлопів.

Особливістю SuperMUC є інноваційна технологіяохолодження системи теплою водою, розроблена компанією IBM, в основу якої покладено систему циркуляції крові в організмі людини. В результаті SuperMUC витрачає на 40% менше енергії на охолодження систем, ніж «класичні» обчислювальні центри, а також дозволяє акумулювати та використовувати зекономлену енергію для опалення будівель Комп'ютерного Центру Лейбниця.

7. Stampede (США) - 2.7 петафлопс

Техаський комп'ютерний центр(Texas Advanced Computing Center, TACC) при університеті Техасу створив суперкомп'ютер, здатний виконувати 2,7 квадрильйонів операцій з плаваючою точкою за секунду. TACC є частиною проекту XSEDE (Середовище для створення передових наукових та інженерних відкриттів), метою якого є надання дослідникам доступу до суперкомп'ютерних ресурсів.

В основі Stampede лежить архітектура Dell, розрахована на роботу в гіперскалярному середовищі та використовує 8-ядерні процесори Intel Xeon E5-2680. Процесори Xeonзабезпечують більш ніж 2 петафлопс продуктивності. Роботи над проектом не закінчені, і в 2013 році Stampede також використовуватиме нові співпроцесори Intel Xeon Phi, призначені для виконання паралельних обчислень, які будуть відповідальні більш ніж за 7 петафлопс продуктивності системи. Це дозволить збільшити сумарну продуктивність системи до 10 петафлопс.

Крім Xeon Phi, суперкомп'ютер використовуватиме 128 графічних прискорювачівнаступного покоління NVIDIA для забезпечення віддаленої віртуалізації. Продуктивність системи може зрости до 15 петафлопс у міру встановлення процесорів Intelнового покоління. Ще одним постачальником компонентів для Stampede є компанія Mellanox, що надає мережеве обладнання Infiniband із пропускною здатністю 56Гбіт/с.

Система охолодження суперкомп'ютера побудована за принципом ізоляції гарячих зон і передбачає використання модулів охолодження, що вбудовуються, що дозволяє розміщувати обладнання з високою щільністю до 40кВт на стійку. Система розподілу живлення подає напругу 415В на стійки та 240В на сервери. Потреби в електроенергії систем Stampede та Ranger забезпечуються електропідстанцією потужністю 10МВт.

8. Tianhe-1A (Китай) - 2,57 петафлопс

Tianhe-1A – суперкомп'ютер, спроектований Національним університетомоборонні технології Китайської Народної Республіки. Швидкість обчислень, що виробляються суперкомп'ютером, становить 2,57 петафлопс.

Tianhe-1A використовує 7168 графічних процесорів Nvidia Tesla M2050 та 14336 серверних процесорів Intel Xeon Згідно заяв компанії Nvidia, суперкомп'ютер використовує електричну енергію втричі ефективніше, ніж інші електронні обчислювальні машини подібного класу. Суперкомп'ютер, побудований виключно з урахуванням центральних процесорів (CPU), за порівнянної швидкості обчислень споживав би понад 12 МВт електричної енергії. Споживана Tianhe-1A електрична потужністьскладає 4,04 МВт. Без використання графічних процесорів суперкомп'ютер порівнянної продуктивності зажадав установки більше 50 тис. CPU.

Будівництво суперкомп'ютера коштувало $88 млн, а щорічні операційні витрати становлять близько $20 млн. В обслуговуванні зайнято близько 200 фахівців. Основний напрямок роботи - дослідження з видобутку нафти та з аеродинаміки. Декларується відкритий доступ до суперкомп'ютера, що теоретично дозволяє його використання іншими країнами.

9. Fermi (Італія) - 1,7 петафлопс

На дев'ятому місці знаходиться Fermi. Системарозміщенана серверах некомерційного консорціуму Cineca, куди входять 54 італійські університети та науково-дослідні організації.Фермі складається з 10,240 процесорів PowerA2 із частотою 1,6 ГГц, із 16 ядрами кожен. Загалом комп'ютер має 163,840 обчислювальних ядер.Кожен процесор поставляється з 16GByte оперативної пам'яті(1GByte на ядро).Фермі використовується італійською та європейською командами дослідників для виконання обчислень, необхідних у великомасштабних дослідницьких проектах, спрямованих на вирішення фундаментальних проблем у науці та техніці.Система названа на честь Енріко Фермі, італійського фізика-ядерника.

10. DARPA Trial Subset (США) - 1,5 петафлопс

Ця система є сервером IBM Power 775 на 63360 ядрах, який досягає продуктивності в 1,5 петафлопс. Інший інформації на Наразіні.

І на закінчення…

Російська технологія - суперкомп'ютер «Ломоносов», що належить МДУ імені М.В. Ломоносова, у цьому списку (на кінець 2012 року) посідає двадцять друге місце. Його продуктивність становила 0,9 петафлопс. Основною причиною, чому вітчизняні машини не займають лідируючих позицій у міжнародних рейтингах, російські виробники одноголосно називають відсутність належного фінансування.

Основний вид вузлів, що забезпечують понад 90% продуктивності суперкомп'ютера – T-Blade2. Ця суперкомп'ютерна платформа була створена інженерами "Т-Платформи" з нуля - всі її плати та механічні компоненти є власними запатентованими розробками компанії. За таким показником, як обчислювальна щільність на квадратний метр площі, T-Blade2 не має аналогів у світі. Так що російські виробники, незважаючи ні на що, можуть пишатися, що створили «компактний» суперкомп'ютер у світі!

Sony Computer Entertainment Inc. з гордістю повідомила про те, що участь розважальної системи PLAYSTATION 3 дозволило проекту Folding@home Стенфордського університету досягти сукупної потужності понад 1 петафлоп.

Петафлопс - це можливість обчислювальної машини або мережі проводити 1 квадрильйон (одиниця з 24 нулями) обчислень з точкою, що плаває в секунду (FLOPS). Іншими словами, якби кожна людина на Землі проводила просте математичне обчислення (наприклад, обчислення відсотка від певної суми), то кожному землянину знадобилося б робити 75 000 простих математичних обчислень на секунду для того, щоб сукупна обчислювальна потужність людства досягла петафлопса.

Подібне збільшення обчислювальної потужності проекту Folding@home значно прискорить проведення досліджень, на які раніше витрачалися десятиліття. І все це стало можливим завдяки процесору Cell Broadband Engine (Cell/B.E.), що використовується в PLAYSTATION 3, обчислювальна потужність якого становить понад 180 GFLOPS (мільярдів операцій з плаваючою точкою в секунду). Cell/B.E. приблизно в 10 разів швидше за звичайний процесор для PC, тому PLAYSTATION 3 без перебільшень можна називати домашнім суперкомп'ютером. Участь PLAYSTATION 3 у проекті допомагає вченим виявляти причини появи таких захворювань як хвороба Паркінсона, хвороба Альцгеймера та ракових захворювань.

За словами ад'юнкт-професора хімії Стенфордського університету та керівника проекту Folding@home Віджая Панді (Vijay Pande), включення PLAYSTATION 3 до проекту Folding@home надало у розпорядження вчених таку міць, про яку вони не могли навіть мріяти.

У свою чергу, президент і генеральний директор американського підрозділу SCEI Джек Треттон (Jack Tretton) заявив, що ще на етапі розробки інженери компанії знали, що потужність PLAYSTATION 3 використовуватиметься не тільки для розваг, а й на благо всього людства. Для всього колективу SCEI використання її дітища в проектах, подібних до Folding@home, - це привід для гордості.

Дослідження білків – вкрай складний процес. У звичайного комп'ютера рішення найпростішого завданняможе тривати до 30 років. Folding@home розподіляє обчислення між тисячами комп'ютерів, об'єднаних у єдину мережу. Донедавна у Folding@home використовувалися тільки персональні комп'ютери. У проекті брали участь близько 200 тисяч ПК, сукупна потужність яких складала близько чверті петафлопсу. Завдяки оновленню внутрішнього програмного забезпечення 15 березня 2007 року PLAYSTATION 3 «навчилася» працювати з проектом. Після цього в Folding@home зареєструвалося понад 600 тисяч користувачів PLAYSTATION 3, що дозволило перевищити позначку потужності 1 петафлопс.

Для того, щоб взяти участь у Folding@home, потрібно лише підключити PLAYSTATION 3 до Інтернету, завантажити нову версіювнутрішнього програмного забезпечення System Software та натиснути піктограму Folding@home у розділі «Мережа» головного меню XMB (XrossMediaBar). У настойках можна встановити опцію автоматичного запуску програми Folding@home у час, коли PLAYSTATION 3 перебуває у режимі очікування. Для автоматичного запуску програми необхідно, щоб PLAYSTATION 3 була увімкнена та підключена до Інтернету.

Варто зазначити, що Folding@home – це лише початок. SCEI планує додати в PLAYSTATION 3 підтримку багатьох інших проектів розподілених обчислень у різних наукових галузях — від медицини до соціальних та екологічних досліджень. При цьому власники PLAYSTATION 3 зможуть самі визначати, на яку мету спрямувати міць своєї розважальної системи.

Як показують дослідження, в середньому обчислювальна потужність настільних ПК відстає від рівня продуктивності суперкомп'ютерів на 13 років. Іншими словами, за рівнем продуктивності сьогодні професійні ПК практично повністю відповідають суперкомп'ютерам 13-річної давності. Саме тому дослідження ринку високопродуктивних обчислень – гарний спосібоцінити напрямок розвитку масових комп'ютерівмайбутнього. Нещодавно суперкомп'ютери подолали планку продуктивності в один терафлопс (трильйон операцій з плаваючою комою в секунду - floating-point operations per second), і вже не за горами досягнення ними продуктивності рівня петафлопс (квадрилліон флопс, або 1015 операцій з плаваючою комою в секунду) , тоді як тера-обчислення залишаться за середньостатистичним користувачем ПК.

Американський професор та письменник Стів Чен спробував уявити, який рівень продуктивності буде достатнім для вирішення різних завдань у майбутньому. На його думку, для завдань аеродинаміки вистачить продуктивності в кілька петафлопс, для задач молекулярної динаміки потрібно вже 20 петафлопс, для обчислювальної космології - фантастична продуктивність на рівні 10 екзафлопс (один екзафлопс дорівнює фвінтиліону, або 10й більше потужні процесори. На думку Стіва Павловського, старшого заслуженого інженера-дослідника Intel, головного директора з технологій та генерального менеджера з архітектури та планування підрозділу Digital Enterprise Group корпорації Intel, комп'ютери з продуктивністю в секстильйон, тобто 1021 операцій з плаваючою комою в секунду з'являться до 2029 року.

Стів Павловський вважає, що проблеми та досягнення сьогоднішніх суперкомп'ютерів стануть проблемами та досягненнями завтрашніх настільних ПК. Зростає ринок високопродуктивних обчислень - його обсяг уже сягнув 10 млрд дол., а в деяких секторах щорічне зростання продажів перевищує 30%; зростає і кількість проданих в усьому світі професійних високопродуктивних комп'ютерів з урахуванням процесорів Intel.

Всього 60 років тому ламповий комп'ютер ENIAC, який вважався технологічною вершиною в галузі високопродуктивних обчислень, мав лише 20 осередків оперативної пам'яті. У середині 60-х з'явився суперкомп'ютер CDC 6600, продуктивність якого досягла 9 мегафлопс. І лише в 1997 році суперкомп'ютер ASCII Red, що містив 9298 процесорів Intel Pentium Pro, вийшов на рівень продуктивності, що дорівнює терафлопс. Сьогодні система на базі 464 чотириядерних процесорів Intel Xeon серії 5300, що займає набагато менший обсяг, має в шість разів більшу пікову продуктивність.

Коли ж буде досягнуто продуктивності рівня петафлопс (тобто тисячі терафлопс) чи, як образно висловлюється Стів Павловський, буде подолано «звуковий бар'єр» пета-продуктивності? І коли пета-обчислення стануть базовими для рядових комп'ютерних систем?

Згідно з оцінками, перші пета-суперкомп'ютери з'являться вже в 2008-2009 роках - для визначення цих термінів достатньо взяти параметри продуктивності найвищих швидкісних комп'ютерів у світі, опубліковані на сайті www.top500.org, і екстраполювати їх відповідно до тенденцій зростання. Однак для того, щоб створити пета-комп'ютери для масового ринку, доведеться вирішити чимало серйозних проблем. З цією метою корпорація Intel разом із партнерами проводить дослідження за такими напрямами:

  • продуктивність;
  • пропускна здатністьпам'яті;
  • міжкомпонентні сполуки;
  • керування електроживленням;
  • надійність.

На думку Стіва Павловського, для досягнення рівня пета-обчислень за допомогою сучасних технологій підвищення продуктивності напівпровідникових мікросхем знадобиться створення процесора зі 100 тис. обчислювальних ядер. Для практичної реалізаціїтаких систем доведеться суттєво підвищити густину розміщення ядер на кристалі. Сьогодні точаться запеклі суперечки з приводу архітектури майбутніх комп'ютерів - що краще: безліч невеликих ядер, оптимізованих для прискорення паралельних обчислень, або кілька більших ядер, призначених для прискорення послідовних обчислень? Схиляючись до першого шляху розвитку, дослідники розуміють, що ставлять перед собою трудомістке завдання переведення софтверної індустрії на рейки паралельного програмування.

Ще одна область досліджень Intel – організація з'єднань обчислювальних ядер між собою. З'єднання за допомогою загальної шини займають менше місця, мають високу пропускну здатність і добре масштабуються, але неефективні з енергоспоживання. Другий варіант - кільцеве з'єднання ядер для передачі сигналів, недоліком якого є низький рівеньмасштабованості зі збільшенням числа ядер. Третій варіант - матрична архітектура, коли кожне ядро ​​зв'язується з кожним через ланцюжок сусідніх ядер.

Варто згадати, що на осінньому Форумі Intel для розробників (IDF) у Сан-Франциско був представлений прототип процесора з 80 ядрами, який потенційно зможе забезпечити продуктивність рівня терафлопс настільних комп'ютерів. За словами головного директора корпорації Intel з технологій Джастіна Раттнера, орієнтовна дата виходу подібного процесорана ринок – 2010 рік чи навіть раніше. В основі прототипу процесора лежить архітектура x86 і такі розробки Intel як система високопродуктивних обчислень на мікросхемі (HPC-on-chip), нова структура з'єднань елементів пам'яті, нові енергозберігаючі технології тощо.

У 2006 році корпорація Intel оголосила глобальну програму досліджень, названу Tera-Scale Computing і що об'єднує понад 80 різних дослідницьких проектів у всьому світі, розподілених за трьома основними напрямками: покращення технологій проектування та виготовлення кремнієвих кристалів, оптимізація платформ та нові підходи до програмування. У своєму виступі на IDF Джастін Раттнер зазначив, що необхідні кроки до тера-ери будуть зроблені протягом найближчого десятиліття. Наприклад, сучасні дослідження спрямовані на оптимізацію роботи кеш-пам'яті, конфігурованість її в залежності від розв'язуваних завдань та на розробку паралелізму обігу багатьох ядер до загальної пам'яті. Корпорація Intel також планує інтегрувати у свої кристали цифровий бездротовий приймач широкого діапазону, що самоналаштовується, не за горами поява прикладних пристроїв, заснованих на принципах інтегрованої кремнієвої фотоніки.

«Висока швидкість передачі даних між обчислювальними ядрами та пам'яттю – важлива проблема, – наголошує Павловський. - Пам'ять повинна мати вкрай високу пропускну здатність. При цьому якщо збільшувати тактову частотуканалу пам'яті, досить скоро ми зіткнемося з фізичними обмеженнями, які накладають мідні провідники ». Одним із можливих шляхів подолання цих обмежень є підвищення числа каналів пам'яті, проте при цьому збільшуються розміри процесора та його собівартість. «Нам доведеться шукати екзотичніші технології передачі даних, - вважає Павловський. - За нашими розрахунками, для роботи пета-процесорів знадобиться пам'ять із пропускною здатністю близько 500 Гбайт/с».

Наступний найважливіший аспект роботи пета-комп'ютерів – це швидкодія системи введення-виведення. Вчені корпорації Intel зараз працюють над тим, щоб забезпечити швидкість передачі даних до сотень гігабайт на секунду (Гбайт/с).

І все-таки найсерйознішими проблемами створення пета-пристроїв є енергопостачання та надійність. Потужність енергоспоживання сучасного великого центру обробки даних (ЦОД) становить середньому 9-10 МВт. Потужність, яку споживає комп'ютер зі 100 тис. ядер, може становити близько 20 МВт. До цього треба додати потужність, потрібну для охолодження пета-комп'ютерів. За нинішньої вартості електроенергії витрати на енергопостачання однієї лише пета-системи перевищать 14,6 млн дол. на рік. Саме тому питання ефективного використання електроенергії дуже важливе, що диктує застосування енергозберігаючих технологій на всіх рівнях – від транзисторів до ЦОД:

  • на рівні транзистора – технології напруженого кремнію, технології для зниження струмів витоку тощо;
  • на рівні процесора – розподіл навантаження на основі багатопоточності;
  • на рівні системи – високоточне керування енергоспоживанням залежно від завантаження системи;
  • на рівні ЦОД – використання вдосконалених систем рідинного та повітряного охолодження, а також вертикальна інтеграція тепловідвідних рішень.

Мало того, дослідники прогнозують виникнення абсолютно несподіваних проблем, пов'язаних із... космічними променями. Адже в пета-процесорах з високою інтеграцією обчислювальних елементів будуть використовуватися такі малі транзистори, що вони будуть піддані впливу енергійних частинок, що становлять космічні промені і здатні викликати випадковий збій даних при попаданні в транзистор. У міру підвищення щільності розміщення транзисторів на кристалі кількість таких випадкових збоїв швидко зростатиме. «Якщо кількість ядер на кристалі досягне 100 тис., такі збої стануть некерованими, – вважає Павловський. - Вони матимуть все більший вплив на роботу системи, і з ними треба буде боротися. Ми вже розпочали дослідження у цьому напрямі». Перспективні технології забезпечення надійності включають використання контролю парності та кодів коригування помилок, а також застосування надлишкових ядер для перевірки результатів обчислень основних ядер системи.

Флопс – це одиниця, яка позначає продуктивність суперкомп'ютера. Один петафлопс (1 Пфлопс) означає, що машина може здійснювати 1 квадрилліон (1 тис. трлн) операцій на секунду. Зараз потужністю понад 1 Пфлопс мають лише дві машини - Jaguar, зібраний компанією Cray, та Roadrunner виробництва IBM. Обидва суперкомп'ютери розташовані в США. Загалом з першої десятки лише два суперкомп'ютери перебувають за межами США: у Німеччині та Китаї.

04.08.2009 12:20

Сьогодні комп'ютерна галузь – це передовий рубіж науки та техніки. Для вирішення складних завдань у галузі фізики, астрономії, біології, медицини потрібні великі обчислювальні потужності. Саме суперкомп'ютери можуть у цьому допомогти, адже вони для того створюються.

У Останнім часомДоволі часто з'являється інформація, що десь створено черговий суперкомп'ютер. Але що ж це диво техніки? У сучасному розумінні суперкомп'ютер - це найпотужніша електронна обчислювальна машина з продуктивністю понад один трильйон операцій з плаваючою точкою за секунду або терафлопс. Флопс (від англ. Floating point Operations Per Second) - це величина для вимірювання продуктивності комп'ютерів, що показує, скільки операцій з плаваючою комою в секунду виконує та чи інша обчислювальна система. Як правило, сучасний суперкомп'ютер є багатопроцесорним або багатомашинним комплексом (а в ряді випадків і суміщений варіант), що працює на загальну пам'ять і загальне поле зовнішніх пристроїв.

Традиційно основною сферою застосування суперкомп'ютерів є наукові дослідження. Фізика плазми та статистична механіка, фізика конденсованих середовищ, молекулярна та атомна фізика, теорія елементарних частинок, газова динаміка та теорія турбулентності, астрофізика - це лише частина напрямків, де задіяні величезні комп'ютерні потужності.

Сьогодні надпотужні комп'ютерні обчислювальні системи використовуються і для вирішення технічних проблем. Це насамперед завдання аерокосмічної та автомобільної промисловості, ядерної енергетики, передбачення та розробки родовищ корисних копалин, нафтовидобувної та газової промисловості, а також конструювання безпосередньо суперЕОМ.

Суперкомп'ютери також зазвичай застосовуються для військових цілей. Крім розробки різноманітної зброї, вони моделюють її використання. Наприклад, у США обчислювальні потужності суперЕОМ Міністерства енергетики будуть потрібні для моделювання застосування ядерної зброї, що дозволить у майбутньому повністю відмовитися від реальних ядерних випробувань.

В даний час більшість суперкомп'ютерів із рейтингу TOP-500 займаються науковими розробками. У цій сфері задіяно 72 найпотужніші інформаційно-обчислювальні машини. Фінансову галузь обслуговують 46 суперкомп'ютерів, 43 машини працюють на благо геофізики, 33 працюють у сфері інформаційного сервісу, 31 керують логістикою, 29 займаються розробкою напівпровідників, 20 виробляють програмне забезпечення 18 використовуються в службах обробки інформації, а 12 систем управляють інтернетом.

p align="justify"> Робота з величезними масивами обчислень відрізняє суперкомп'ютери від серверів і мейнфреймів (англ. mainframe) - комп'ютерних систем з високою загальною продуктивністю, покликаних вирішувати типові завданнянаприклад, обслуговування великих баз даних або одночасна робота з безліччю користувачів.

Зростання продуктивності обчислювальних систем відбувається, насамперед, за рахунок підвищення швидкодії фізико-технологічної бази (електронних компонентів, пристроїв пам'яті, засобів комунікацій, введення-виведення та відображення інформації) та розвитку паралельності в процесі обробки інформації на всіх системно-структурних рівнях, що пов'язано із збільшенням кількості задіяних компонентів (обробних елементів, обсягів пам'яті, зовнішніх пристроїв).

Найпопулярнішою архітектурою суперкомп'ютерів (72% у списку TOP-500) сьогодні є так звані кластери. Для побудови кластерної архітектури суперЕОМ використовуються обчислювальні вузли, які є часом найбільш звичайні комп'ютери. У такому вузлі зазвичай кілька процесорів – від 2 до 8. Для цього використовуються цілком звичайні комплектуючі, широко доступні на ринку – материнські (SMP-мультипроцесорні) плати, процесори Intel, AMD або IBM, а також звичайні модулі оперативної пам'яті та вінчестери.
За порівняно невелику історію суперкомп'ютери еволюціонували від малопотужних за сучасними мірками систем до машин з фантастичною продуктивністю.

Перша згадка суперкомп'ютера відноситься до кінця 20-х років минулого століття, коли цей термін з'явився на сторінках газети New York World у вигляді словосполучення "super computing" (у перекладі з англійської - суперобчислення). Це поняттяналежало до табуляторів - електромеханічних обчислювальних машин, виготовлених компанією IBM на замовлення і потреб Колумбійського університету і що виробляють складні на той час обчислення. Звичайно, тоді ніяких суперкомп'ютерів у сучасному розумінні просто не було, цей далекий предок сучасних ЕОМ швидше був якоюсь подобою калькулятора.

Згадка терміна "суперкомп'ютер" стосовно потужної електронної обчислювальної системи приписується Джорджу Мішелю (George A. Michael) та Сіднею Фернбачу (Sidney Fernbach) - співробітникам Ліверморської національної лабораторії (США, Каліфорнія) та компанії Control Data Corporation. Вони наприкінці 60-х років займалися створенням потужних ЕОМ потреб міністерства оборони та енергетичної галузі США. Саме в Ліверморській лабораторії було розроблено більшість суперкомп'ютерів, включаючи найшвидший з 2004 по 2008 рік суперкомп'ютер у світі - Blue Gene/L.

Однак у широке вживання термін "суперкомп'ютер" увійшов завдяки американському розробнику. обчислювальної технікиСеймуру Крею (Seymour Cray), який ще в 1957 році створив компанію Control Data Corporation, яка зайнялася проектуванням та будівництвом електронних обчислювальних комплексів, які стали родоначальниками сучасних суперкомп'ютерів. У 1958 році під його керівництвом було розроблено перший у світі потужний комп'ютерНа транзисторах CDC 1604. Варто зазначити, що компанія Сеймура Крея стала першою серійно випускати суперкомп'ютери - в 1965 році на ринок виходить машина CDC-6600 продуктивністю 3 млн операцій в секунду. Цей комп'ютер став основою цілого напряму, який Крей заснував у 1972 році і назвав Cray Research. Ця фірма займалася виключно розробкою та виробництвом суперкомп'ютерів. У 1976 році Cray Research випустила обчислювальну систему CRAY-1 зі швидкодією близько 100 мегафлопс. А через дев'ять років, в 1985 році, суперкомп'ютер CRAY-2 долає швидкість обчислення в 2 гігафлопи.

1989 року Сеймур Крей відкриває Cray Computer Corporation з явним орієнтуванням на ринкові перспективи суперЕОМ. Тут він створює суперкомп'ютер CRAY-3, швидкодія якого сягала вже п'яти гігафлопс. З цим комп'ютером пов'язаний цікавий факт. Справа в тому, що після появи CRAY-3 в англійська моваувійшов вираз "Час Крею" (Cray time), який означав вартість години роботи суперкомп'ютера (тоді вона становила 1 тис. доларів на годину). Є ще один вираз, який ходив у колах комп'ютерних фахівців - "Суперкомп'ютер - це будь-який комп'ютер, який створив Сеймур Крей".

Варто зазначити, що у 80-ті роки ХХ століття з'явилося безліч невеликих конкуруючих компаній, які створювали високопродуктивні комп'ютери. Але вже до середини 90-х, не витримавши конкуренції з великими корпораціями, більшість дрібних та середніх фірм залишили цю сферу діяльності.

Сьогодні суперкомп'ютери є унікальними системами, які створюються "традиційними" гравцями комп'ютерного ринку, такими як IBM, Hewlett-Packard, Intel, NEC та іншими. Саме ці комп'ютерні гіганти наразі диктують правила гри у сфері високопродуктивних електронних обчислювальних систем.

1997 року американська компанія Intelвипустила свій суперкомп'ютер ASCI Red, який став першою у світі системою зі швидкодією понад один трильйон операцій за секунду - 1,334 терафлопс. Суперкомп'ютери Intel зберігали першість ще два роки, але в 2000 першим став комп'ютер ASCI White корпорації IBM, встановлений в Ліверморській лабораторії (Lawrence Livermore National Laboratory), який щомиті виробляв 4 трлн. 938 млрд. обчислень (4,938 терафлопс). Ця суперЕОМ займала лідируючу позицію ще рік, отримавши після апгрейду швидкість рівну 7,226 терафлопс. Але вже у квітні 2002 року японська компанія NEC оголосила про запуск суперкомп'ютера Earth Simulator, який зміг досягти максимальної швидкості 35,86 терафлопс.

Чергову зміну лідерів світ суперкомп'ютерів пережив восени 2004 року – 29 вересня на перше місце у світі вийшов суперкомп'ютер компанії IBM Blue Gene/L. Ця потужна обчислювальна система досягала швидкості 36,01 терафлопс. Однак і цей рекорд протримався недовго - вже 26 жовтня національне управління США з аеронавтики та дослідження космічного простору (NASA) заявило, що його новий суперкомп'ютер Columbia, побудований фірмою Silicon Graphics і названий на честь шатла, що загинув у лютому 2003 року, зробив швидкість обчислень 42,7 терафлопс. Через кілька днів цей комп'ютер зміг збільшити швидкодію до 51,87 терафлопс.
На початку листопада 2004 року звання абсолютного рекордсмена знову завоював Blue Gene/L, черговий зразок якого компанія IBM випустила для Міністерства оборони США. В даний час максимальна швидкість його роботи перевищує 70,72 терафлопс. Цей комп'ютер був лідером аж до червня 2008 року, коли IBM для ядерної лабораторії в Лос-Аламосі (США, Нью Мехіко) побудував свій черговий суперкомп'ютерний шедевр - найпотужнішу з будь-коли створених електронних обчислювальних систем Roadrunner.

Спеціально для обліку суперкомп'ютерів було засновано проект TOP-500, основним завданням якого є складання рейтингу та описів найпотужніших ЕОМ світу. Цей проект був відкритий у 1993 році і публікує двічі на рік (у червні та листопаді) оновлений список суперкомп'ютерів.

Отже, як уже говорилося, найпотужнішим на сьогодні суперкомп'ютером, за даними останньої редакції рейтингу TOP-500, є обчислювальна система IBM Roadrunner. Цей комп'ютер побудований за гібридною схемою з 6500 двоядерних процесорів AMD Opteron і майже 13 000 процесорів IBM Cell 8i, розміщених у спеціальних стійках TriBlades, з'єднаних за допомогою Infiniband - високошвидкісної послідовної шини, що комутується. Його пікова продуктивність складає 1,105 петафлоп.

Roadrunner працює під керуванням Linux. Суперкомп'ютер від IBM займає близько 1100 квадратних метрів простору та важить 226 тонн, а його енергоспоживання – 3,9 Мегават. Вартість IBM Roadrunner склала 133 млн доларів.

Міністерство енергетики США застосовуватиме RoadRunner для розрахунків старіння ядерних матеріалів та аналізу безпеки та надійності ядерного арсеналу. Крім того, ця суперЕОМ використовуватиметься для наукових, фінансових, транспортних та аерокосмічних обчислень.
Друге місце в рейтингу займає суперкомп'ютер Cray XT5 Jaguar, який встановлений у лабораторії міністерства енергетики США в Ок-Ріджі, штат Теннессі. Його продуктивність дорівнює 1,059 петафлоп.

Поставити новий рекорд продуктивності Jaguar зміг після того, як до його 84 блоків Cray XT4 було додано дві сотні блоків Cray XT5. Останні побудовані на базі чотириядерних процесорів AMD Opteron. Кожен блок Cray XT5 містить до 192 процесорів. Загальна кількість процесорів Jaguar складає 45 тисяч.

З інших технічних характеристиксуперкомп'ютера відомі обсяг його оперативної пам'яті та ємність дискових накопичувачів, Вони дорівнюють 362 терабайтам і 10 петабайтам відповідно.

На відміну від IBM Roadrunner, суперкомп'ютер Jaguar має вирішувати мирні завдання. Наприклад, він буде використаний для моделювання кліматичних змін і в таких областях, як відновлювані джерела енергії та матеріалознавство. Крім того, в міністерства енергетики США заявляють, що Jaguar дозволить дослідити процеси, про вивчення яких раніше не йшлося. Що це за процеси, на жаль, не повідомляється.

Третім за потужністю суперкомп'ютером у світі, а також найшвидшим у Європі є модель суперкомп'ютерної лінійки IBM Blue Gene/P, яка встановлена ​​в дослідному центрі Юліха в Німеччині. Обчислювальний комплекс JUGENE, який був запущений влітку цього року, налічує 72 стійки, в яких розміщується 294 912 процесора PowerPC 450 core 850 МГц, а його потужність складає 825,5 терафлопс. Об'єм пам'яті німецького суперЕОМ становить 144 ТБ. Крім того, даний суперкомп'ютер є одним із найбільш економічних пристроїв серед аналогічних рішень - його енергоспоживання становить близько 2,2 МВт.

Обчислювальні ресурси цього суперкомп'ютера використовуються серед іншого при розрахунку проектів, пов'язаних з термоядерними дослідженнями, розробкою нових матеріалів, пошуком лікарських препаратів наступного покоління, а також при моделюванні змін клімату, поведінки елементарних частинок, складних хімічних реакційі т. д. розподілом обчислювальних потужностей між проектами займається група незалежних експертів.

До речі, Росія, за даними на листопад 2008 року, займає 11-14 місце за кількістю. встановлених системпоряд з Австрією, Новою Зеландією та Іспанією. Лідирують за цим показником США, де знаходяться близько 300 суперкомп'ютерів з рейтингу. Однак за потужністю найпродуктивніший російський суперкомп'ютер МВС-100K, який виконує завдання у Міжвідомчому суперкомп'ютерному центрі Академії наук РФ, знаходиться лише на 54 місці. Незважаючи на цей факт, МВС-100K з піковою продуктивністю 95,04 терафлопс зараз є найпотужнішим суперкомп'ютером, встановленим у країнах СНД. До його складу входять 990 обчислювальних модулів, кожен із яких оснащений двома чотириядерними процесорами Intel Xeon, що працюють на частоті 3 ГГц. Найближчим часом планується збільшення продуктивності МВС-100К до 150 TFlops. Цей суперкомп'ютер призначений на вирішення широкого кола складних науково-технічних завдань.

Які перспективи очікують на суперкомп'ютери в майбутньому? На думку експертів, найрайдужніші. Але вже зараз ясно, що їхня продуктивність зростатиме досить швидко за рахунок збільшення числа процесорних ядер та середньої частоти процесорів. Крім того, для вирішення прикладних проблем у суперкомп'ютерах використовуватимуть не тільки універсальні процесори, а й спеціалізовані (наприклад, графічні процесори, розроблені Nvidia та ATI), призначені для конкретних завдань. Також виробники суперкомп'ютерів шукатимуть нові унікальні архітектурні рішення, які б дозволили не тільки збільшити потужність ЕОМ, але й дали б переваги в конкуренції на комерційному ринку. Крім цього, в майбутньому суперкомп'ютери помітно підвищиться коефіцієнт корисної діїза рахунок розвитку програмних засобів. Зростуть і інтелектуальні здібності суперЕОМ, а разом з цим зростатимуть професійні якості програмістів та інших ІТ-фахівців.

Варто також зазначити, що в майбутньому високопродуктивні обчислювальні системи поступово збільшуватимуть свою присутність на світовому комп'ютерному ринку. За даними IDC, світовий ринок суперкомп'ютерів щороку зростає на 9,2%. Виручка виробників суперкомп'ютерів у другому кварталі 2008 року склала 2,5 млрд. доларів, що на 4% більше за аналогічний період минулого року і на 10% більше, ніж у першому кварталі 2008 року.

Як відзначають аналітики IDC, перше місце за обсягом виручки зайняла компанія HP з часткою ринку в 37%, за нею слідує IBM (27%) і замикає "трійку" лідерів Dell (16%). За прогнозом аналітиків IDC, ринок суперкомп'ютерів до 2012 року досягне позначки 15,6 млрд. доларів.

З представлених у TOP-500 систем 209 (41,8%) виготовлені спеціалістами HP. Компанія IBM знаходиться на другому місці зі 186 обчислювальними машинами, а компанія Cray займає третє місце – в її активі 22 суперЕОМ.

Що стосується Росії, то тут, на думку комерційного директора компанії "Т-Платформи" Михайла Кожевнікова, щорічне зростання на ринку суперкомп'ютерів складає близько 40%. Так, за даними "Т-Платформи" обсяг ринку суперЕОМ у Росії 2007 року становив близько 60 млн. доларів, а 2008 року ринок зріс приблизно 80 млн. доларів. За словами Михайла Кожевнікова, навіть за умов кризи очікується, що за 2009 рік ринок зросте приблизно на 60%, а за благополучних умов і до 100%.

Як видно, суперкомп'ютери лише набирають "комерційні" оберти. Це важко уявити, але дійсно громіздкі обчислювальні машини розходяться на комп'ютерному ринку як "гарячі пиріжки". Чи варто чекати зменшеного варіанта суперЕОМ з такими ж високими характеристиками, які зараз мають великі обчислювальні системи? На це непросте питання можуть відповісти, мабуть, лише самі суперкомп'ютери, адже це їхня робота.

Кінець роботи -

Ця тема належить розділу:

Названо новий список найпотужніших суперкомп'ютерів

Створення надпотужних ЕОМ названо одним з пріоритетів технологічного.

Якщо вам потрібно додатковий матеріална цю тему, або Ви не знайшли те, що шукали, рекомендуємо скористатися пошуком по нашій базі робіт:

Що робитимемо з отриманим матеріалом:

Якщо цей матеріал виявився корисним для Вас, Ви можете зберегти його на свою сторінку в соціальних мережах:

− 10 21 йоттафлопс − 10 24 ксерафлопс − 10 27

FLOPS(або flopsабо flop/s) (акронім від англ. Fl oating point O perations P er S econd , вимовляється як флопс) - величина, що використовується для вимірювання продуктивності комп'ютерів, що показує, скільки операцій з плаваючою комою в секунду виконує ця обчислювальна система.

Оскільки сучасні комп'ютеримають високий рівень продуктивності, найбільш поширені похідні величини від FLOPS, утворені шляхом використання стандартних приставок системи СІ .

Флопс як міра продуктивності

Як і більшість інших показників продуктивності, дана величина визначається шляхом запуску на випробуваному комп'ютері тестової програми, яка вирішує завдання з певною кількістю операцій та підраховує час, за який вона була вирішена. Найбільш популярним тестом продуктивності на сьогоднішній день є програма LINPACK, яка використовується, у тому числі, при складанні рейтингу суперкомп'ютерів TOP500.

Одним з найважливіших переваг показника флопс є те, що він до деяких меж може бути витлумачений як абсолютна величина і обчислений теоретично, в той час як більшість інших популярних заходів є відносними і дозволяють оцінити випробувану систему лише в порівнянні з іншими. Ця особливість дає можливість використовувати для оцінки результати роботи різних алгоритмів, а також оцінити продуктивність обчислювальних систем, які ще не існують або перебувають у розробці.

Межі застосування

Незважаючи на однозначність, в реальності флопс є досить поганою мірою продуктивності, оскільки неоднозначним є вже саме його визначення. Під "операцією з плаваючою комою" може ховатися маса різних понять, не кажучи вже про те, що істотну роль у цих обчисленнях грає розрядність операндів, яка також ніде не обумовлюється. Крім того, величина флопс схильна до впливу дуже багатьох факторів, безпосередньо не пов'язаних з продуктивністю обчислювального модуля, таких як: пропускна здатність каналів зв'язку з оточенням процесора, продуктивність основної пам'яті та синхронність роботи кеш-пам'яті різних рівнів.

Все це, зрештою, призводить до того, що результати, отримані на тому самому комп'ютері за допомогою різних програм, можуть істотно відрізнятися, більше того, з кожним новим випробуванням різні результати можна отримати при використанні одного алгоритму. Почасти ця проблема вирішується угодою про використання одноманітних тестових програм (той самий LINPACK) з середнім результатів, але з часом можливості комп'ютерів «переростають» рамки прийнятого тесту і він починає давати штучно занижені результати, оскільки не задіяє нові можливості обчислювальних пристроїв. А до деяких систем загальноприйняті тести взагалі не можуть бути застосовані, внаслідок чого питання їхньої продуктивності залишається відкритим.

Причини поширення

Незважаючи на велику кількість істотних недоліків, показник флопс продовжує успішно використовуватися для оцінки продуктивності, базуючись на результатах тесту LINPACK. Причини такої популярності обумовлені, по-перше, тим, що флопс, як говорилося вище, є абсолютною величиною. А, по-друге, дуже багато завдань інженерної та наукової практики, зрештою, зводяться до вирішення систем лінійних рівнянь алгебри , а тест LINPACK якраз і базується на вимірі швидкості вирішення таких систем. Крім того, переважна більшість комп'ютерів (включаючи суперкомп'ютери) побудовані за класичною архітектурою з використанням стандартних процесорів, що дозволяє використовувати загальноприйняті тести з великою достовірністю. Як показано на процесорах Intel Core 2 Quad Q9450 2.66ГГц @3.5ГГц та Intel Core 2 Duo E8400 3000 МГц (2008) програма LINPACK не використовує рішення алгебраїчних виразів, оскільки будь-яка операція не може йти швидше, ніж 1 такт процесора. Так для процесорів Intel Core 2 Quad один такт вимагає один-два герці. Так як для завдань з плаваючою комою: розподіл/множення, додавання/віднімання - потрібно набагато більше одного такту, то видно, що видати 48 гігафлопс і 18,5 гігафлопса відповідно дані процесори не могли. Часто замість операції поділу з плаваючою комою використовується завантаження даних у режимі ДМА з оперативної пам'яті стек процесора. Так працює програма LINPACK у деяких тестах, але, власне кажучи, результат не є значенням флопс.

Примітка:зауваження про неможливість виконання більше однієї операції за такт є абсолютно некоректним, оскільки всі сучасні процесориу кожному своєму ядрі містять кілька виконавчих блоків кожного типу (у тому числі і для операцій з плаваючою точкою), що працюють паралельно і можуть виконувати більше однієї інструкції за такт. Ця особливість архітектури називається суперскалярність і вперше з'явилася ще в першому процесорі

Огляд продуктивності реальних систем

Через високий розкид результатів тесту LINPACK наведено зразкові величини, отримані шляхом опосередкування показників на основі інформації з різних джерел. Продуктивність ігрових приставокта розподілених систем (яких мають вузьку спеціалізацію та не підтримують тест LINPACK) наведена в довідкових цілях відповідно до числа, заявлених їх розробниками. Точніші результати із зазначенням параметрів конкретних систем можна отримати, наприклад, на сайті .

Суперкомп'ютери

Персональні комп'ютери

Процесори

  • Intel Core 2 Duo E8400 3.0ГГц () - 18.6 Гфлопс При використанні стандартної версії LINPACK 10
  • Intel Core 2 Duo E8400 3.0ГГц @4.0ГГц () - 25 Гфлопс (LINPACK Benchmark 10.0 64-біт) у Windows Vista x64 Ultimate SP1
  • Intel Core 2 Quad Q9450 2.66ГГц @ 3.5ГГц – 48 ГФлопс (LINPACK Benchmark 10.0 64-біт) у Windows 2003sp2 x64

Кишенькові комп'ютери

розподілені системи

Ігрові приставки

Людина та калькулятор

Примітки

Див. також

Посилання

  • TOP500 Рейтинг суперкомп'ютерів TOP500 (англ.)
  • The Performance Database Server Велика база даних продуктивності обчислювальних систем (англ.)
  • Roy Longbottom's PC Benchmark Collection Підбірка тестових програм для ПК (включаючи LINPACK) та результатів випробувань (англ.)
  • Linpack CPU Benchmark for Pocket PC Версія LINPACK для КПК (англ.)

Wikimedia Foundation. 2010 .

Дивитись що таке "Петафлопс" в інших словниках:

    Скриншот клієнта Folding@home для PlayStation 3 , що показує 3D модель білка, що моделюється Тип Розподілені обчислення … Вікіпедія



Розповісти друзям