Тесты gtx 280 пользователями после покупки. Компьютерный ресурс У SM. Основные архитектурные особенности CUDA

💖 Нравится? Поделись с друзьями ссылкой

На улице лето, за окном гроза, дует теплый влажный ветер, под боком в стенде стоит новая печка-грелка, извергающая на меня горячий воздух после снятия жара с 280-ти Ватт выделенного тепла, все одно к одному.

Мне нравятся Hi-End ускорители тем, что если его снять с компа сразу после работы (с руганью и дуя на обожженные пальцы), положить во всевозможные предохранительные пакеты, спасающие чудо технику прецизионного качества от повреждений, то даже после перевозки в течение часа — изделие будет теплым, как будто сейчас только что с фабрики или хлебопекарни. И даже иногда горячим. Так что все эти сотни Ватт — это вам не лампочку вывернуть и в кармане донести.

Мы внутри раздела в силу работы и служебных нужд иногда передаем друг другу видеокарты для тестов и прочих исследований, и подчас принимаешь ускоритель, а он внутри почти горячий еще… За время перевозки в машине не успел остыть… :)

Так вот, играм все нужно больше FPS, людям нужно больше красивой графики, а ускорителям нужно больше кушать, и потому компании-производители кулеров будут еще долго при делах, придумывая новые изощренные способы снять жар с огнедышащих драконов квадратной формы и вывести его за пределы корпуса (иногда и просто в корпус, чтобы там все спеклось). Скоро на видеокарты будем надевать такие же огромные 24-пиновые коннекторы, какими подрубаем питание к материнским платам. Уже пойдет речь о трехслотовых видеокартах, которым наверно потребуется уже особое крепление в корпусе. Да, вроде бы техпроцесс все уменьшается, но размеры видеокарт все растут и растут, ибо от них хотят все больше и больше.

Бедная Nvidia сделала очередного монстра, как в 2006 году — G80, чип очень дорогой — это видно по всем параметрам, судя по первой информации — карт в продажу после анонса пойдет очень мало, что говорит о невысоком проценте выхода годных. При этом, чтобы сбить спрос — цену на GTX 280 подняли до небес. Почему бедная? — ну потому что есть разница в ситуации в 2006 году и сейчас. Если тогда реально была нужда в новых супермощных картах, и G80 показал тогда реально революционный прорыв, то теперь это очередные плюс двадцать-тридцать процентов к… 9800 GTX. Да, даже не к 9800 GX2. Ниже мы все покажем детально. Хотя есть и тесты, где GTX 280 является полный лидером. И если ранее реально G80 (8800 GTX) — разбирался как горячие пирожки зимой, то теперь спрос явно будет не таким высоким. Хотя с учетом того, что в начале продаж карт вообще будет очень мало, Nvidia боится и такого спроса, потому цены подняты до 650 долларов США, что явно нелогично, ибо даже 9800 GX2 стоит дешевле.

Ну чтобы интригу разбавить практикой, мы перейдем к изучению карты. Теоретическую часть читатели уже изучили, поняли, что внутри одного такого квадратика со стороной в 3 см находится воплощение суперидей инженеров Nvidia, для которых потребовалось аж почти полтора миллиарда транзисторов, теперь посмотрим на то, а как он выглядит.

Платы

  • GPU: Geforce GTX 280 (GT200)
  • Интерфейс: PCI-Express x16
  • Частоты работы GPU (ROPs/Shaders): 600/1300 MHz (номинал — 600/1300 МГц)
  • Частоты работы памяти (физическая (эффективная)): 1100 (2200) MHz (номинал — 1100 (2200) МГц)
  • Ширина шины обмена с памятью: 512bit
  • Число вершинных процессоров: -
  • Число пиксельных процессоров: -
  • Число универсальных процессоров: 240
  • Число текстурных процессоров: 80 (BLF/TLF)
  • Число ROPs: 32
  • Размеры: 270x100x33 мм (последняя величина — максимальная толщина видеокарты).
  • Цвет текстолита: черный
  • RAMDACs/TMDS: вынесены в отдельный чип NVIO.
  • Выходные гнезда: 2xDVI (Dual-Link/HDMI), TV-out.
  • VIVO: нет
  • TV-out: интегрирован в GPU.
  • Поддержка многопроцессорной работы: SLI (Hardware).
Сравнение с эталонным дизайном, вид спереди
Reference Nvidia Geforce GTX 280 1024MB PCI-E
Сравнение с эталонным дизайном, вид сзади
Reference Nvidia Geforce GTX 280 1024MB PCI-E Reference card Nvidia Geforce 9800 GTX

Очевидно, что перед нами совершенно новый дизайн, не похожий ни на что ранее вапускаемое Nvidia, поскольку PCB несет в себе 512-битную шину обмена с памятью. Это заставляет размещать на текстолите 16 микросхем памяти, поэтому потребовался дизайн с двухсторонним монтажом микросхем (по 8 штук на каждой стороне). Поэтому длина карты осталась большой, да и PCB весьма дорогая. Не забываем, что Nvidia снова прибегла к способу разделения блоков GPU, и вынесла все блоки, отвечающие за вывод информации, в отдельную микросхему NVIO, как это было в случае G80 (8800 GTX/Ultra).

Выше показаны GPU и тот самый NVIO. Понятно, что размеры кристалла у GPU намного меньше — он закрыт крышкой, однако можно себе представить площадь ядра, вмещающего в себя почти 1,5 миллиарда транзисторов.

Теперь о кулере. Система охлаждения принципиально не отличается от того варианта, что мы видели еще на Geforce 8800 GTS 512. Да и форма кулера та же самая. Просто выросла длина радиатора в соответствии с размерами самой карты, ну и сзади установлена пластина для охлаждения микросхем памяти на обороте карты. Все устройство собрано так, что создает единый общий большой радиатор из крышек (задняя и передняя крышки защелкиваются, поэтому при разборе видеокарты и снятии кулера есть определенные сложности и нужен некий опыт, чтобы обнажить саму карту, не нанеся повреждений). Опыт создания 9800 GX2 с такими же защелками понравился инженерам.

Напоминаем еще раз важный момент: длина ускорителя — 270 мм, как у 8800 GTX/Ultra, поэтому в корпусе должно быть достаточно места для установки такой конструкции. А также обратим внимание на ширину кожуха, которая неизменна вдоль всей длины, а следовательно на материнской плате за PCI-E x16 разъемом не должно быть никаких портов и высоких конденсаторов, причем на ширину 30 мм (то есть не только за самим слотом PCI-E, но за соседним с ним не должно быть никаких высоких частей на системной плате).

Видеокарты этой серии оснащены гнездом для подключения звукового потока с аудио-карты для передачи его затем на HDMI (с помощью переходника DVI-to-HDMI), то есть сама видеокарта не оснащена аудио-кодеком, но осуществляет прием сигнала от внешней звуковой карты. Поэтому, если кому эта функция важна, следите за тем, чтобы в комплекте поставки видеокарты был аудио-шнурок для этих целей.

Также отметим, что питание ускорителя осуществляется с помощью ДВУХ разъемом, причем 6-пинового и 8-пинового. Поэтому также следует обращать внимание на наличие в комплекте поставки переходника питания на 8-пин.

У карты имеется гнездо TV-выхода, которое уникально по разъему, и для вывода изображения на ТВ как через S-Video, так и по RCA, требуются специальные адаптеры-переходники, поставляемые вместе с картой. Более подробно о ТВ-выходе можно почитать .

Подключение к аналоговым мониторам с d-Sub (VGA) производится через специальные адаптеры-переходники DVI-to-d-Sub. Также поставляются переходники DVI-to-HDMI (мы помним, что данные ускорители поддерживают полноценную передачу видео и звука на HDMI-приемник), поэтому проблем с такими мониторами также не должно быть.

Максимальные разрешения и частоты:

  • 240 Hz Max Refresh Rate
  • 2048 × 1536 × 32bit x85Hz Max — по аналоговому интерфейсу
  • 2560 × 1600 @ 60Hz Max — по цифровому интерфейсу (все DVI-гнезда с Dual-Link)

Что касается возможностей видеокарт по проигрыванию MPEG2 (DVD-Video), то еще в 2002 году мы изучали этот вопрос , с тех пор мало что поменялось. В зависимости от фильма загрузка CPU при проигрывании на современных видеокартах не поднимается выше 25%.

По поводу HDTV. Одно из исследований также проведено, и с ним можно ознакомиться .

Мы провели исследование температурного режима с помощью утилиты RivaTuner (автор А.Николайчук AKA Unwinder) и получили следующие результаты:

Стоит особо обратить внимание на то, на сколько снижаются частоты при работе в 2D (левый маркер на скриншоте) — до 100(!) МГц по шейдерному блоку и по памяти! Это реально снижает потребление карты до 110 Вт. Когда как в 3D при полной нагрузке ускоритель ест все 280 Вт! И при этом нагрев ядра достигает 80 градусов, что укладывается в норму, особенно если учесть, что кулер остается тихим. В этом плане карта безупречна, только лишь нужен очень мощный блок питания. Полагаем, что всем понятно, что ниже 700Вт даже нет смысла пробовать.

Поскольку карта поставляется в ОЕМ-виде как сэмпл, то о комплекте поставки речь не идет.

Установка и драйверы

Конфигурация тестового стенда:

  • Компьютер на базе Intel Core2 (775 Socket)
    • процессор Intel Core2 Extreme QX9650 (3000 MHz);
    • системная плата Zotac 790i Ultra а чипсете Nvidia nForce 790i Ultra;
    • оперативная память 2 GB DDR3 SDRAM Corsair 2000MHz (CAS (tCL)=5; RAS to CAS delay (tRCD)=5; Row Precharge (tRP)=5; tRAS=15);
    • жесткий диск WD Caviar SE WD1600JD 160GB SATA.
    • блок питания Tagan TG900-BZ 900W.
  • операционная система Windows Vista 32bit SP1; DirectX 10.1;
  • монитор Dell 3007WFP (30").
  • драйверы ATI версии CATALYST 8.5; Nvidia версии 175.16 (9ххх серия) и 177.34 (GTX 280).

VSync отключен.

Синтетические тесты

Используемые нами пакеты синтетических тестов можно скачать здесь:

  • D3D RightMark Beta 4 (1050) с описанием на сайте 3d.rightmark.org
  • D3D RightMark Pixel Shading 2 и D3D RightMark Pixel Shading 3 — тесты пиксельных шейдеров версий 2.0 и 3.0 ссылка .
  • RightMark3D 2.0 с кратким описанием:

Для работы RightMark3D 2.0 требуется установленный пакет MS Visual Studio 2005 runtime, а также последнее обновление DirectX runtime.

Синтетические тесты проводились на следующих видеокартах:

  • Nvidia Geforce GTX 280 GFGTX280 )
  • Nvidia Geforce 9800 GX2 со стандартными параметрами (далее GF9800GX2 )
  • Nvidia Geforce 9800 GTX со стандартными параметрами (далее GF9800GTX )
  • Nvidia Geforce 8800 Ultra со стандартными параметрами (далее GF8800U )
  • RADEON HD 3870 X2 со стандартными параметрами (далее HD3870X2 )
  • RADEON HD 3870 со стандартными параметрами (далее HD3870 )

Для сравнения результатов Geforce GTX 280 были выбраны именно эти модели видеокарт по следующим причинам: с Geforce 9800 GX2 её будет интересно сравнить, как с быстрейшей двухчиповой картой на GPU предыдущего поколения, с Geforce 9800 GTX — как с одночиповой, со старой моделью Geforce 8800 Ultra сравниваем для того, чтобы посмотреть разницу в пропускной способности, оценить влияние улучшений архитектуры. Ну а с RADEON HD 3870 и HD 3870 X2 сравнение интересно потому, что это быстрейшие одночиповое и двухчиповое решение от AMD на данный момент.

Direct3D 9: Тесты Pixel Filling

В тесте определяется пиковая производительность выборки текстур (texel rate) в режиме FFP для разного числа текстур, накладываемых на один пиксель:

Как обычно — не у всех видеокарт получаются значения, близкие к теоретическим. Чаще всего, результаты синтетики не дотягивают до теории, ближе всего к ним подбираются видеокарты на основе G80 и RV670, они не добирают до теории лишь 10-15%. А вот для видеокарт Nvidia, отличающихся улучшенными TMU, в нашем старом тесте теоретический максимум не достигается. Причём, не видно никаких улучшений в GT200, что G92 в нашем тесте выбирает лишь около 32 текселей за один такт из 32-битных текстур при билинейной фильтрации, что GT200 не дотягивает до теоретических способностей. Впрочем, возможно, виноват наш устаревший тест.

Тем не менее, Geforce GTX 280 слишком близок к Geforce 9800 GTX, а с одной текстурой он вообще проигрывает даже Geforce 8800 Ultra, несмотря на большую ПСП! А ведь в таких случаях карты ограничены пропускной способностью видеопамяти… В случае с большим количеством текстур на пиксель, способности блоков ROP раскрываются полнее, и в более тяжелых условиях карта на GT200 становится быстрейшей (если учесть некорректный результат теста двухчиповой видеокарты Nvidia). Двухчиповую же карту от AMD новинка опережает во всех протестированных режимах. Посмотрим на результаты в тесте филлрейта:

Второй синтетический тест измеряет скорость заполнения, и в нём мы видим ту же самую ситуацию, но уже с учетом количества записанных в буфер кадра пикселей. Странно, что в случаях с 0 и 1 накладываемыми текстурами у Geforce GTX 280 получился такой низкий результат, обычно в таких режимах производительность ограничена ПСП, а также количеством и рабочей частотой блоков ROP. А с этим у нового решения всё в порядке…

Но получается всё так же, как и в предыдущем тесте — лишь в ситуациях с большим количеством текстур на пиксель, Geforce GTX 280 немного выигрывает у ближайших конкурентов, хотя должен бы отрываться сильнее.

Direct3D 9: Тесты Geometry Processing Speed

Рассмотрим пару предельных геометрических тестов, и первым у нас будет самый простой вершинный шейдер, показывающий максимальную пропускную способность по треугольникам:

Все современные чипы основаны на унифицированных архитектурах, их универсальные исполнительные блоки в этом тесте заняты только геометрической работой, и решения показывают высокие результаты, явно упирающиеся не в пиковую производительность унифицированных блоков, а в производительность других блоков, например, triangle setup.

Собственно, результаты в очередной раз подтверждают то, что чипы AMD быстрее обрабатывают геометрию, по сравнению с чипами Nvidia, а двухчиповые решения в AFR режиме эффективно удваивают частоту кадров. Geforce GTX 280 проигрывает двухчиповым картам, опережает решение на G80 и находится на одном уровне с быстрейшей из одночиповых карт на основе G92. Получается, что этот тест зависит исключительно от тактовой частоты GPU. Что интересно, эффективность выполнения теста в разных режимах у GT200 больше походит на ту, что показывает G80, но не G92.

Мы убрали из рассмотрения промежуточные тесты на скорость обработки геометрии с одним источником освещения, и сразу же переходим к рассмотрению самой сложной геометрической задачи с тремя источниками света, включающей статические и динамические переходы:

В этом варианте разница между решениями AMD и Nvidia видна лучше, разрыв немного увеличился. Geforce GTX 280 показывает лучший результат из карт Nvidia, чуть-чуть опережая Geforce 9800 GTX и 8800 Ultra, кроме FFP теста, который сейчас уже никого не интересует. В целом, новый чип неплохо проявляет себя в данных геометрических тестах. Но в реальных приложениях универсальные шейдерные процессоры заняты в основном пиксельными расчетами, к исследованию производительности которых мы и переходим.

Direct3D 9: Тесты Pixel Shaders

Первая группа пиксельных шейдеров, которую мы рассматриваем, является очень простой для современных видеочипов, она включает в себя различные версии пиксельных программ сравнительно низкой сложности: 1.1, 1.4 и 2.0.

Тесты слишком просты для современных архитектур и не показывают их истинную силу. Это хорошо видно по первым двум тестам (Wood и Psychodelic), результаты которых почти на всех решениях одинаковые. Кроме того, в простых тестах производительность ограничена скоростью текстурных выборок, что видно по слабым результатам RADEON HD 3870 X2, показавшем результат на уровне одночиповых решений Nvidia.

В более сложных тестах Geforce GTX 280 показывает неплохие результаты, опережая и топовую карту на G92, и карту на G80. Причём, с увеличением сложности задачи, отрыв GT200 от предыдущих чипов явно растёт. Хотя двухчипового 9800 GX2 карта не догоняет ни в одном из тестов. Посмотрим на результаты тестов более сложных пиксельных программ промежуточных версий:

В сильно зависящем от скорости текстурирования тесте процедурной визуализации воды «Water» используется зависимая выборка из текстур больших уровней вложенности, поэтому карты расположились строго по скорости текстурирования, как было на самом первом графике. Единственный RADEON, даже будучи двухчиповым, отстаёт от всех решений на основе G92, G80 и GT200. Ну а рассматриваемая сегодня видеокарта проигрывает только двухчиповой 9800 GX2, опережая одночиповых собратьев, точно по теории.

Второй тест, более интенсивный вычислительно, явно лучше подходит для архитектуры R6xx и GT200, обладающих большим количеством вычислительных блоков. В этом тесте решение AMD показывает лучший результат, далее следует также двухчиповая карта, но от Nvidia. Но самое приятное в том, что Geforce GTX 280 проигрывает им совсем чуть-чуть! Неплохой результат, GT200 быстрее одного G92 в этом тесте в 1.7 раза, как Nvidia и писала в своих презентациях. А вот эффективности SLI для 9800 GX2 явно не достаёт.

Direct3D 9: Тесты пиксельных шейдеров New Pixel Shaders

Эти тесты пиксельных шейдеров DirectX 9 ещё сложнее, они делятся на две категории. Начнем с более простых шейдеров версии 2.0:

  • Parallax Mapping — знакомый по большинству современных игр метод наложения текстур, подробно описанный в статье
  • Frozen Glass — сложная процедурная текстура замороженного стекла с управляемыми параметрами

Существует два варианта этих шейдеров: с ориентацией на математические вычисления, и с предпочтением выборки значений из текстур. Рассмотрим математически интенсивные варианты, более перспективные с точки зрения будущих приложений:

Положение видеокарт в тесте «Frozen Glass» отличается от результатов предыдущих тестов. Несмотря на то, что это математические тесты, зависящие от частоты шейдерных блоков, Geforce GTX 280 выигрывает у 9800 GTX совсем немного, а двухчиповый 9800 GX2 далеко впереди них обоих. Видимо, производительность ограничена не только математикой, но и скоростью текстурных выборок. RADEON HD 3870 X2 показывает самый слабый результат.

Зато во втором тесте «Parallax Mapping» решение AMD заметно сильнее, хоть и снова позади лучших карт Nvidia. Но в этот раз оно проигрывает только новой видеокарте и двухчиповому решению. Улучшения в TMU и внутричиповых кэшах сказались на результате GTX 280, она обогнала двухчиповый RADEON и немного отстаёт от аналогичного решения на двух G92. Рассмотрим эти тесты в модификации с предпочтением выборок из текстур математическим вычислениям, там видеокарты на основе G92 должны показать более высокие относительные результаты:

Положение немного изменилось, мы видим явный упор производительности в скорость текстурных блоков. Geforce GTX 280 во всех тестах прилично опережает решение AMD и немного — всех одночиповых собратьев. А вот впереди всех — двухчиповый Geforce 9800 GX2. Надо заметить, что для всех решений варианты шейдеров с большим количеством математических вычислений работают быстрее в 1.5-2 раза, по сравнению с их «текстурными» вариантами.

Рассмотрим результаты ещё двух тестов пиксельных шейдеров — версии 3.0, самых сложных из наших тестов пиксельных шейдеров для Direct3D 9. Тесты отличаются тем, что сильно нагружают и ALU и текстурные модули, обе шейдерные программы сложные, длинные, включают большое количество ветвлений:

  • Steep Parallax Mapping — значительно более «тяжелая» разновидность техники parallax mapping, также описанная в статье
  • Fur — процедурный шейдер, визуализирующий мех

Хотя решения AMD обеспечивают эффективное исполнение сложных пиксельных шейдеров версии 3.0 с большим количеством ветвлений, Geforce 9800 GTX показывает результат на одном уровне с двухчиповой картой на базе RV670. Это можно объяснить ускоренными билинейными текстурными выборками в архитектуре G9x и большей эффективностью использования имеющихся ресурсов, обусловленную разницей между скалярной и суперскалярной архитектурами.

Двухчиповый Geforce 9800 GX2 почти удваивает производительность, являясь лидером в обоих тестах, ну а рассматриваемый сегодня Geforce GTX 280 логично расположился посередине между этими решениями. Хотелось бы большей разницы между скоростью GT200 и G92, конечно… Хотя бы в 1.6-1.7 раз.

Direct3D 10: Тесты пиксельных шейдеров PS 4.0 (текстурирование, циклы)

В новую версию RightMark3D 2.0 вошли два знакомых PS 3.0 теста под Direct3D 9, которые были переписаны под DirectX 10, а также ещё два полностью новых теста. В первую пару добавились возможности включения самозатенения и шейдерного суперсэмплинга, что дополнительно увеличивает нагрузку на видеочипы.

Данные тесты измеряют производительность выполнения пиксельных шейдеров с циклами, при большом количестве текстурных выборок (в самом тяжелом режиме до нескольких сотен выборок на пиксель!) и сравнительно небольшой загрузке ALU. Иными словами, в них измеряется скорость текстурных выборок и эффективность ветвлений в пиксельном шейдере.

Первым тестом пиксельных шейдеров будет Fur. При самых низких настройках в нём используется от 15 до 30 текстурных выборок из карты высот и две выборки из основной текстуры. Режим Effect detail — «High» увеличивает количество выборок до 40-80, включение «шейдерного» суперсэмплинга — до 60-120 выборок, а режим «High» совместно с SSAA отличается максимальной «тяжестью» — от 160 до 320 выборок из карты высот.

Проверим сначала режимы без включенного суперсэмплинга, они относительно просты, и соотношение результатов в режимах «Low» и «High» должно быть примерно одинаковым.

Результаты в «High» получились почти в полтора раза ниже, чем в «Low». В остальном — Direct3D 10 тесты процедурной визуализации меха с большим количеством текстурных выборок снова показывают огромное преимущество решений Nvidia над AMD. Производительность в этом тесте зависит не только от количества и скорости блоков TMU, но и от филлрейта и ПСП. Сравнение результатов Geforce 9800 GTX и 8800 Ultra указывает на это.

У героя обзора Geforce GTX 280 очень хорошие результаты в этом тесте, он лишь чуть-чуть отстал от двухчипового Geforce 9800 GX2, обогнав одночиповое решение на G92 на 60-70%. Посмотрим на результат этого же теста, но с включенным «шейдерным» суперсэмплингом, увеличивающим работу в четыре раза, возможно в такой ситуации что-то изменится, и ПСП с филлрейтом будут влиять меньше:

Включение суперсэмплинга теоретически увеличивает нагрузку в четыре раза, но на видеокартах Nvidia скорость снижается чуть сильнее, чем на AMD, за счет чего отрыв между ними сокращается, и HD 3870 вместе с X2 вариантом совсем немного подтягиваются вверх. Но преимущество карт Nvidia никуда не делось, оно подавляющее.

В остальном, с увеличением сложности шейдера и нагрузки на видеочип, разница между Geforce GTX 280 и всеми остальными картами Nvidia очень сильно растёт. Теперь новый GTX опережает старый в 2.5 раза! Вот что значит архитектура, переработанная для исполнения сложнейших шейдеров. Даже двухчиповый 9800 GX2 повержен с большим преимуществом.

Второй тест, измеряющий производительность выполнения сложных пиксельных шейдеров с циклами при большом количестве текстурных выборок называется Steep Parallax Mapping. При низких настройках он использует от 10 до 50 текстурных выборок из карты высот и три выборки из основных текстур. При включении тяжелого режима с самозатенением, число выборок возрастает в два раза, а суперсэмплинг увеличивает это число в четыре раза. Наиболее сложный тестовый режим с суперсэмплингом и самозатенением выбирает от 80 до 400 текстурных значений, то есть в восемь раз больше, по сравнению с простым режимом. Проверяем сначала простые варианты без суперсэмплинга:

Этот тест даже интереснее с практической точки зрения, ведь разновидности parallax mapping давно применяются в играх, а тяжелые варианты, вроде нашего steep parallax mapping используются в некоторых проектах, например, в Crysis и Lost Planet. Кроме того, в нашем тесте, помимо суперсэмплинга, можно включить самозатенение, увеличивающее нагрузку на видеочип примерно в два раза, такой режим называется «High».

Повторилась ситуация предыдущего теста. Хотя решения AMD ранее были сильны в Direct3D 9 тестах parallax mapping, в обновленном D3D10 варианте без суперсэмплинга они не могут справиться с нашей задачей на уровне видеокарт Geforce. Кроме того, включение самозатенения вызывает на продукции AMD большее падение производительности, по сравнению с разницей для решений Nvidia.

Рассматриваемый нами сегодня Geforce GTX 280 уже без включения суперсэмплинга начинает опережать всех, включая Geforce 9800 GX2, обгоняя 9800 GTX и 8800 Ultra в тяжелом режиме более чем в два раза. Посмотрим, что изменит включение суперсэмплинга, в прошлом тесте он вызывал большее падение скорости на картах Nvidia.

При включении суперсэмплинга и самозатенения задача получается более тяжёлой, совместное включение сразу двух опций увеличивает нагрузку на карты почти в восемь раз, вызывая большое падение производительности. Разница между скоростью разных видеокарт уже несколько другая. Включение суперсэмплинга сказывается как и в предыдущем случае — карты производства AMD улучшают свои показатели относительно решений Nvidia. HD 3870 продолжает отставать от всех Geforce, зато двухчиповый X2 почти на одном уровне с 8800 Ultra и 9800 GTX.

Что касается сравнения Geforce GTX 280 с предыдущими топами на базе одного чипа G80 или G92, они оба повержены с 2-3 кратным преимуществом! А в High режиме новая видеокарта намного быстрее и двухчиповой на G92. Снова просто отличный результат, показывающий, насколько хорошо GT200 разбирается с такими сложнейшими задачами.

Direct3D 10: Тесты пиксельных шейдеров PS 4.0 (вычисления)

Следующая пара тестов пиксельных шейдеров содержит минимальное количество текстурных выборок для снижения влияния производительности блоков TMU. В них используется большое количество арифметических операций, и измеряют они именно математическую производительность видеочипов, скорость выполнения арифметических инструкций в пиксельном шейдере.

Первый математический тест — Mineral. Это тест сложного процедурного текстурирования, в котором используются лишь две выборки из текстурных данных и 65 инструкций типа sin и cos.

Ранее, при анализе результатов наших синтетических тестов, мы не раз отмечали, что в вычислительно сложных задачах современная архитектура AMD показывает себя зачастую лучше конкурирующей от Nvidia. Но время идёт, и ситуация меняется, теперь в соперничестве RADEON HD 3870 и любого из Geforce, решение AMD уступает. Зато двухчиповый HD 3870 X2 хорош (спасибо AFR), почти на одном уровне с двухчиповым же Geforce 9800 GX2.

Но нас с вами сегодня интересует производительность Geforce GTX 280. И она просто отличная, видеокарта на основе нового чипа GT200 почти догоняет двухчиповые карты прошлого поколения, опережая «старую» Geforce 8800 Ultra и «почти новую» Geforce 9800 GTX на 60-70%, что примерно соответствует разнице в чистой мощности шейдерных блоков, их количеству и тактовой частоте.

Второй тест шейдерных вычислений носит название Fire, и он ещё более тяжёл для ALU. В нём текстурная выборка только одна, а количество инструкций типа sin и cos увеличено вдвое, до 130. Посмотрим, что изменилось при увеличении нагрузки:

В общем, в данном тесте скорость рендеринга явно ограничена производительностью шейдерных блоков. Со времени выхода RADEON HD 3870 X2 ошибка в драйверах AMD была исправлена, результат их решений AMD стал подобающим теории, и теперь RADEON HD 3870 в этом тесте показывает скорость даже выше, чем у всех Geforce 8800 и 9800.

Но не Geforce GTX 280, опережающий одночиповых предшественников от Nvidia более чем в 1.5 раза, что также близко к теоретической разнице в шейдерной производительности. Лидером же является двухчиповый RADEON HD 3870 X2. И вероятно, что с появлением новых решений AMD, пальма первенства в математических тестах перейдёт к ним.

Direct3D 10: Тесты геометрических шейдеров

В пакете RightMark3D 2.0 есть два теста скорости геометрических шейдеров, первый вариант носит название «Galaxy», техника аналогична «point sprites» из предыдущих версий Direct3D. В нем анимируется система частиц на GPU, геометрический шейдер из каждой точки создает четыре вершины, образующих частицу. Аналогичные алгоритмы должны получить широкое использование в будущих DirectX 10 играх.

Изменение балансировки в тестах геометрических шейдеров не влияет на конечный результат рендеринга, итоговая картинка всегда абсолютно одинакова, изменяются лишь способы обработки сцены. Параметр «GS load» определяет, в каком из шейдеров производятся вычисления — в вершинном или геометрическом. Количество вычислений всегда одинаково.

Рассмотрим первый вариант теста «Galaxy», с вычислениями в вершинном шейдере, для трёх уровней геометрической сложности:

Начинается самое интересное, ведь в Nvidia пообещали увеличение эффективности исполнения геометрических шейдеров. Впрочем, график показывает, что первый тест слабо использует эти возможности, и нам придётся подождать второго. Соотношение скоростей при разной геометрической сложности сцен примерно одинаковое. Производительность соответствует количеству точек, с каждым шагом падение FPS составляет около двух раз. Задача для современных видеокарт не очень сложная и ограничение скорости мощностью потоковых процессоров в тесте не явное, задача ограничена также и ПСП и филлрейтом, хотя и в меньшей степени.

Geforce GTX 280 показывает результат на уровне двухчиповой RADEON HD 3870 X2, что более чем в два раза быстрее одиночной HD 3870. По скорости среди собратьев от Nvidia, результат анонсированной карты лёг точно между одиночной картой на базе чипа G92 и двухчиповой версией. В целом — не так плохо, хотя хотелось бы достижения производительности 9800 GX2. Возможно, при переносе части вычислений в геометрический шейдер ситуация изменится, посмотрим:

Разница между рассмотренными вариантами теста невелика, существенных изменений не произошло. Все видеокарты Nvidia показывают почти те же результаты при изменении параметра GS load, отвечающем за перенос части вычислений в геометрический шейдер. Зато результаты обеих видеоплат AMD немного выросли, и RADEON HD 3870 отстаёт уже меньше, а двухчиповая HD 3870 X2 даже немного впереди Geforce GTX 280. Посмотрим, что изменится в следующем тесте, который предполагает большую нагрузку именно на геометрические шейдеры…

«Hyperlight» — это второй тест геометрических шейдеров, демонстрирующий использование сразу нескольких техник: instancing, stream output, buffer load. В нем используется динамическое создание геометрии при помощи отрисовки в два буфера, а также новая возможность Direct3D 10 — stream output. Первый шейдер генерирует направление лучей, скорость и направление их роста, эти данные помещаются в буфер, который используется вторым шейдером для отрисовки. По каждой точке луча строятся 14 вершин по кругу, всего до миллиона выходных точек.

Новый тип шейдерных программ используется для генерации «лучей», а с параметром «GS load», выставленном в «Heavy» — ещё и для их отрисовки. То есть, в режиме «Balanced» геометрические шейдеры используются только для создания и «роста» лучей, вывод осуществляется при помощи «instancing», а в режиме «Heavy» выводом также занимается геометрический шейдер. Сначала рассматриваем лёгкий режим:

Относительные результаты в разных режимах соответствуют нагрузке: во всех случаях производительность неплохо масштабируется и близка к теоретическим параметрам, по которым каждый следующий уровень «Polygon count» должен быть в два раза медленней. Производительность Geforce 9800 GX2 в этот раз провалилась куда-то глубоко-глубоко, возможно, на новых драйверах ситуация будет иной. Обе карты производства AMD также отстают от всех решений Nvidia.

Если сравнивать все платы на G80, G92 и GT200, наглядно видно, что упор в тесте получается во что-то отличное от ПСП, филлрейта и вычислительной мощности — все карты практически равны. Хотя и несколько удивительно, что в тяжелом режиме GT200 немного проигрывает G92… Цифры могут измениться на следующей диаграмме, в тесте с более активным использованием геометрических шейдеров. Также будет интересно сравнить друг с другом результаты, полученные в «Balanced» и «Heavy» режимах.

Ну вот, дождались! Впервые в геометрических тестах, соотношение скоростей между GT200 и всеми остальными изменилось так, как было задумано инженерами Nvidia, когда они устраняли недостатки предыдущих архитектур. Geforce GTX 280 более чем в два раза быстрее и Geforce 9800 GTX и 8800 Ultra. Мало того, он опережает и двухчиповый RADEON HD 3870 X2. Вероятно, выиграл бы и у 9800 GX2 по-честному, даже без помощи драйверных проблем последнего в этом тесте.

Что касается сравнения результатов в разных режимах, тут всё как всегда, в конкурентной борьбе одночиповой видеоплате AMD не помогает и то, что при переходе от использования «instancing» к геометрическому шейдеру при выводе, видеокарты Nvidia (кроме новой на GT200) теряют в производительности. У всех карт Geforce на основе чипов G92 и G80 скорость в «Balanced» режиме получается выше, чем в «Heavy» у RADEON HD 3870. При этом, получаемая в разных режимах картинка не отличается визуально.

Много интереснее поведение Geforce GTX 280 в «Balanced» и «Heavy». Это — первая видеокарта Nvidia, получившая прирост производительности от переноса части вычислений в геометрический шейдер в данном тесте. Снова налицо работа над ошибками у Nvidia, как это было ранее уже не раз! Кое-кому надо бы поучиться у них, а не продолжать наступать на одни и те же грабли уже которое поколение…

Direct3D 10: Скорость выборки текстур из вершинных шейдеров

В тестах «Vertex Texture Fetch» измеряется скорость большого количества текстурных выборок из вершинного шейдера. Тесты схожи по сути и соотношение между результатами карт в тестах «Earth» и «Waves» должно быть примерно одинаковым. В обоих тестах используется на основании данных текстурных выборок, единственное существенное отличие состоит в том, что в тесте «Waves» используются условные переходы, а в «Earth» — нет.

Рассмотрим первый тест «Earth», сначала в режиме «Effect detail Low»:

Судя по предыдущим исследованиям, на результаты этого теста сильно влияет пропускная способность памяти, и чем проще режим, тем большее влияние на скорость она оказывает. Это хорошо заметно по сравнительным результатам Geforce 9800 GTX и Geforce 8800 Ultra, если в простом режиме вторая выигрывает за явным преимуществом в ПСП, в среднем результаты сближаются, а в самом сложном они уже почти равны.

Двухчиповая 9800 GX2 не особо вырывается вперёд, хотя HD 3870 X2 показывает двукратный прирост по сравнению с HD 3870. Вероятно, недостатки драйверов, точнее — режима AFR. Тем не менее, даже Geforce 8800 Ultra показывает результат лучше, чем HD 3870 X2, а за рассматриваемой сегодня Geforce GTX 280 можно закрепить формальное лидерство. Посмотрим на результаты этого же теста с увеличенным количеством текстурных выборок:

Ситуация изменилась не слишком сильно, в лёгком режиме продолжает лидировать GTX 280, но в сложном 9800 GX2 уже выходит вперёд. Впрочем, Geforce GTX 280 всё равно быстрее обоих конкурентов от AMD и немного впереди одночиповых собратьев линеек Geforce 8 и 9. Как и в прошлый раз, по мере усложнения задачи, результаты карт уплотняются.

Рассмотрим результаты второго теста текстурных выборок из вершинных шейдеров. Тест «Waves» отличается меньшим количеством выборок, зато в нём используются условные переходы. Количество билинейных текстурных выборок в данном случае до 14 («Effect detail Low») или до 24 («Effect detail High») на каждую вершину. Сложность геометрии изменяется аналогично предыдущему тесту.

А вот тест «Waves» благосклоннее к продукции AMD, одночиповая модель семейства RADEON HD 3800 смотрится неплохо, опережая решение на базе G92 в лёгком режиме, немного уступая в тяжёлом. Ясно видно, что в этом тесте скорость зависит не столько от мощности TMU, сколько от ПСП и филлрейта, так как даже двухчиповая карта на двух G92 показала результат на уровне решения предпредыдущего поколения — Geforce 8800 Ultra. Наш герой Geforce GTX 280 впереди всех в легчайшем режиме, но в остальных двух уступает двухчиповому RADEON. Рассмотрим второй вариант этого же теста:

Изменений немного, но с увеличением сложности теста результаты видеоплат серии RADEON HD 3800 стали ещё чуть лучше относительно скорости карт Nvidia. Последние потеряли в скорости несколько больше. Все остальные выводы также остаются в силе — скорость более всего ограничивается ПСП, в лёгком режиме сильнее, а в тяжёлых большую роль начинают играть блоки TMU и «двухчиповость», поэтому 9800 GX2 догоняет GTX 280, а HD 3870 X2 и вовсе опережает. В тестах VTF положение плат AMD серьёзно улучшилось, если ранее мы замечали, что решения Nvidia лучше справляются с тестами текстурных выборок из вершинных шейдеров, теперь ситуация иная.

Выводы по синтетическим тестам

На основе результатов синтетических тестов Geforce GTX 280, а также других моделей видеокарт обоих основных производителей видеочипов, мы можем сделать вывод, что новое решение Nvidia получилось очень мощным. В синтетических тестах оно значительно опережает по скорости одночиповые варианты предыдущего поколения, иногда до двух раз и даже более, часто борется на равных с двухчиповыми продуктами. Это стало возможным благодаря улучшенной архитектуре GT200 с увеличенным количеством исполнительных блоков ALU, TMU и ROP. Все модификации и улучшения позволяют рассмотренной видеокарте показывать отличные результаты во всех синтетических тестах.

Совсем не только увеличенное количество исполнительных блоков повлияло на рост скорости, но и улучшенная по сравнению с G8x и G9x архитектура, отличающаяся более высокой эффективностью, вычислительной производительностью, важной для современных и будущих приложений с большим количеством сложных шейдеров всех типов. В архитектуру GT200 были внесены изменения почти во все блоки, мощнее стали и шейдерные процессоры, и текстурные и блоки ROP, и многое другое.

Кроме модификаций, направленных на дальнейшее увеличение производительности, Nvidia уделила внимание и устранению досадных недостатков в G8x/G9x. Благодаря этому, видеоплаты на основе чипа GT200 показывают лучшие результаты в условиях очень сложных шейдеров, и особенно — сложных геометрических шейдеров с созданием геометрии «на лету». Это первый видеочип от Nvidia, который получил прирост производительности от переноса части вычислений в геометрический шейдер в одном из наших синтетических тестов. И тем более приятно, что сама компания использует наш тест для внутренних целей.

В целом, новая видеокарта Geforce GTX 280 отлично сбалансирована, особенно для будущих приложений, более требовательных к шейдерной производительности. Она обладает большим количеством всех исполнительных блоков, очень широкой шиной обмена с памятью, а следовательно, и высокой ПСП, на ней установлено оптимальное для high-end решения количество локальной видеопамяти. Технических недостатков у решения не так много, единственное, чего хотелось бы — слегка большей рабочей частоты для видеочипа в целом и шейдерных блоков в частности. Но это — вопрос скорее к технологическому процессу…

Следующая часть нашей статьи содержит тесты нового решения компании Nvidia в современных игровых приложениях. Эти результаты должны примерно соответствовать выводам, сделанным при анализе результатов синтетических тестов, с поправкой на большее влияние филлрейта и ПСП. Скорость рендеринга в играх сильнее зависит от скорости текстурирования и филлрейта, чем от мощности ALU и блоков обработки геометрии. И, судя по результатам в синтетике, можно предположить, что скорость Geforce GTX 280 в играх будет где-то между Geforce 9800 GTX и 9800 GX2, но ближе к последнему. То есть, в среднем, GT200 должен быть быстрее G92 на 60-80%.

Блок питания для тестового стенда предоставлен компанией TAGAN
Монитор Dell 3007WFP для тестовых стендов предоставлен компанией

В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.

Предыстория

Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA . Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» - конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

Выход нового флагмана

Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты - неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

Технические подробности

Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

Графический ускоритель GeForce GTX 280

  • кодовое имя чипа GT200;
  • технология 65 нм;
  • 1,4 миллиарда (!) транзисторов;
  • унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
  • 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
  • частота ядра 602 МГц (GeForce GTX 280);
  • ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
  • 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
  • 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
  • возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
  • запись результатов до 8 буферов кадра одновременно (MRT);
  • все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

Спецификации референсной видеокарты NVIDIA GeForce GTX 280

  • частота ядра 602 МГц;
  • частота универсальных процессоров 1296 МГц;
  • количество универсальных процессоров 240;
  • количество текстурных блоков – 80, блоков блендинга - 32;
  • эффективная частота памяти 2,2 ГГц (2*1100 МГц);
  • тип памяти GDDR3;
  • объем памяти 1024 МБ;
  • пропускная способность памяти 141,7 ГБ/с;
  • теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
  • теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
  • два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • двойной SLI разъем;
  • шина PCI Express 2.0;
  • TV-Out, HDTV-Out, DisplayPort (опционально);
  • энергопотребление до 236 Вт;
  • двухслотовое исполнение;
  • изначальная рекомендуемая цена $649.

Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

  • В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
  • В 2,5 раза увеличено число одновременно исполняемых потоков.
  • Вдвое увеличена максимальная длина сложного шейдерного кода.
  • Вдвое увеличена точность расчетов с плавающей запятой.
  • Намного быстрее исполняются геометрические расчеты.
  • Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
  • Увеличена скорость доступа к буферу памяти.
  • Улучшены внутренние связи чипа между различными блоками.
  • Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
  • Поддержка 10-битной глубины цвета.

Приведём основную диаграмму чипа GT200:

Основные архитектурные особенности CUDA

С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) - вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах - в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

NVIDIA PhysX

Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

Улучшенная технология управления питанием

Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

  • режим простоя или 2D (около 25 ватт);
  • режим просмотра HD/DVD видео (около 35 ватт);
  • полноценный 3D режим (до 236 ватт);
  • режим HybridPower (около 0 ватт);

Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

Видеокарта на NVIDIA GeForce GTX 280

Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

Производитель

Название

ENGTX280/HTDP/1G/A

Графическое ядро

NVIDIA GeForce GTX 280 (G200-300-A2)

Конвейера

240 унифицированных потоковых

Поддерживаемые API

DirectX 10.0 (Shader Model 4.0)
OpenGL 2.1

Частота ядра (шейдерного домена), МГц

Объем (тип) памяти, МБ

Частота (эффективная) памяти, МГц

Шина памяти

512-разрядная

Стандарт шины

PCI Express 2.0 x16

Максимальное разрешение

До 2560 x 1600 в режиме Dual-Link DVI
До 2048 х 1536 при 85 Гц по аналоговому VGA
До 1080i через HDTV-Out

2x DVI-I (2x VGA через переходники)
TV-Out (HDTV, S-Video и Composite)

Поддержка HDCP
Декодирование HD-видео

Есть
H.264, VC-1, MPEG2 и WMV9

Драйверы

Свежие драйверы можно скачать с:
- сайта поддержки;
- сайта производителя GPU .

Сайт производителя

Поставляется видеокарта в достаточно габаритной двойной картонной коробке. Но, в отличие от упаковки предыдущих топовых ускорителей, эта чуть меньше по размерам и лишена пластиковой ручки, видимо ASUS начала экономить картон.

Но одна из боковых сторон упаковки все же раскрывается в виде книжки, рассказывая покупателю об экстремальных возможностях графического ускорителя и фирменных технологий.

На обратной стороне упаковки, кроме перечисления общих возможностей видеокарты и фирменного программного обеспечения, заботливо указана информация о минимальных требованиях к система, в которую будет установлена ASUS ENGTX280/HTDP/1G/A. Наиболее интересной и критичной частью является рекомендация использовать минимум 550 Вт блок питания, который способен выдать до 40 А по линии 12V. Также БП должен обеспечить необходимое число выходов питания, к которым и будут подключаться переходники питания.

Рядом указана и верная схема подачи питания на видеокарту. Обращаем внимания, что для 8-контактного разъема используется переходник с двух 6-контактных PCI Express, а не с пары периферийных, как это можно было увидеть ранее при установке ускорителей AMD/ATI. Учитывая энергопотребление GeForce GTX 280, к питанию придется подойти более тщательно.

Внутри красочной и информативной обложки, т.е. внешней коробки, находится полностью черная внутренняя, которая в свою очередь поделена на еще несколько отдельных боксов и ниш, вмещающих всю комплектацию.

Комплект поставки является более чем достаточным для полноценного использования ускорителя и помимо самого видеоадаптера включает в себя:

    два диска с драйверами, утилитами и электронной версией руководства пользователя;

    бумажное руководство по быстрой установке видеокарты;

    фирменный «кожаный» коврик для мыши;

    фирменную папку для дисков;

    переходник с 2-x Molex (питания периферийных устройств) на 6-pin питание PCI-Express;

    переходник с 2-х 6-контактных PCI Express на 8-контактный разъем питания;

    удлинитель 8-контактного разъема питания;

    переходник с 8-контактного разъема на 6-контактный PCI Express;

    переходник c S-Video TV-Out на покомпонентный HDTV-Out;

  • переходник с DVI на VGA.

Видеокарта на GeForce GTX 280 имеет такие же габариты, как ускорители на NVIDIA GeForce 9800 GX2 , а с NVIDIA GeForce 9800 GTX она даже сходна внешне, при взгляде на фронтальную часть, которая полностью скрыта под «примелькавшейся» системой охлаждения. В общем, разработкой всех этих ускорителей и их кулеров занимались примерно одни и те же инженеры, поэтому внешнее сходство не удивительно.

Сразу же отметим, что совершенно не важно кто является конечным продавцом ускорителя, выпуском топовых видеокарт занимается непосредственно сама NVIDIA на производственных мощностях партнеров. Конечные реализаторы занимаются только упаковкой готовых ускорителей и вправе рассчитывать только на возможность прошить свой фирменный BIOS, немного разогнать видеокарту или заменить кулер на альтернативный.

Обратная сторона видеокарты теперь скрыта за металлической пластиной, которая, как выяснилось в процессе разборки, играет роль радиатора для чипов памяти, располагающихся теперь с обеих сторон печатной платы.

Сверху видеокарты, почти у самого края, находятся разъемы подключения дополнительного питания. Имея энергопотребление до 236 Вт, ускорителю необходимо надежное питания, которое обеспечивается одним 6-контактным разъемом PCI Express и одним 8-контактным, как и на двухчиповом GeForce 9800 GX2.

Рядом с разъемами питания под резиновой заглушкой спрятан цифровой аудиовход SPDIF, который должен обеспечить микширование аудиопотока с видеоданными при использовании выхода HDMI.

С другой стороны тоже под заглушкой находится двойной разъем SLI, что обеспечивает поддержку 3-Way SLI и позволяет собрать компьютер с невероятно производительной видеосистемой.

За вывод изображения отвечают два DVI, которые с помощью переходников могут быть преобразованы в VGA или HDMI, а также TV-Out с поддержкой HDTV. Рядом с разъемом телевизионного выхода, возле отверстий вывода нагретого воздуха, расположен индикатор питания видеокарты, отображающий его статус в данный момент.

Под системой охлаждения находится печатная плата, которая во многом напоминает предыдущие топовые решения на G80 (например GeForce 8800 Ultra), только теперь, вследствие доведения объема видеопамяти до 1 ГБ, чипы располагаются с обеих сторон печатной платы и не так плотно. Плюс усилена система питания, чтобы обеспечить работу столь мощного ускорителя.

Основным потребителем электроэнергии является чип NVIDIA G200-300 второй ревизии, который и именуют GeForce GTX 280. Именно он содержит 240 унифицированных потоковых процессоров, которые работают на тактовой частоте 1296 МГц при работе остального ядра на частоте 602 МГц. Обмен данными с видеопамятью производится по 512-битной шине. Этот графический процессор способен обеспечить невероятную производительность при обработке графических данных, но узлы работы с внешними интерфейсами в него не поместились.

За все входы и выходы отвечает отдельный чип NVIO2, причем расположение его «вдали» от основного процессора позволяет говорить об отсутствии различных наводок и помех, что должно обеспечить отличное изображение даже на аналоговых мониторах.

В качестве микросхем памяти используется продукция Hynix. Микросхемы при рабочем напряжении 2,05 В имеют время отклика 0,8 мс, т.е. обеспечивают работу видеопамяти на эффективной частоте до 2200 МГц. На этой же тактовой частоте микросхемы памяти и функционируют.

Отдельно расскажем о кулере. Система охлаждения имеет привычную для NVIDIA конструкцию и занимает соседний с видеокартой слот расширения, обеспечивая отвод нагретого воздуха за пределы корпуса.

Интересно отметить, что за отвод тепла отвечают не только алюминиевые пластины радиатора, но и весь корпус кулера, что хорошо видно по соединению тепловых трубок с ним. Поэтому проветривание видеокарты любым удобным способом может обеспечить заметное улучшение ее температурного режима. А мыслей об улучшении охлаждения мало кому из владельцев этого «горячего монстра» удастся избежать. Уже непродолжительная серьезная нагрузка на видеокарту заставляет турбину раскручиваться до максимальных 1500 об/мин, что заметно нарушает акустический комфорт. Но даже это не избавляет ускоритель от значительного нагрева.

В закрытом хорошо вентилируемом корпусе температура графического процессора перевалила за отметку 100°C, а воздух, выдуваемый системой охлаждения, навел на мысль, что зря NVIDIA представила этот графический процессор к лету – надо было к зиме, чтобы пользователь, купивший очень дорогой ускоритель, мог экономить на отоплении.

Чтобы видеокарта не перегрелась, пришлось открыть корпус и направить в его сторону бытовой вентилятор – это обеспечило снижение на 14 градусов температуры GPU и на 9 градусов всей видеокарты. Именно в таком положении производились все тесты и последующий разгон. Но при открытом корпусе штатный кулер показался еще немного громче.

А вот при отсутствии 3D нагрузки температура видеокарты значительно снижается, что достигается еще и дополнительным снижением рабочих частот и уменьшением напряжения – в режиме 2D видеокарта потребляет на 200 Вт меньше. Этот же факт позволяет медленнее вращаться и турбине кулера, что делает его практически беззвучным.

При тестировании использовался Стенд для тестирования Видеокарт №1
Выберите с чем хотите сравнить GeForce GTX280 1GB ASUS


Среди одночиповых ускорителей решение на NVIDIA GeForce GTX 280, несомненно, занимает лидирующее положение, но вот у двухчиповых ускорителей и multi-GPU конфигураций из карт предыдущего поколения ASUS ENGTX280/HTDP/1G/A выигрывает не всегда, особенно в условиях использования не самого производительного процессора.

2-ядерный процессор против 4-ядерного

А что даст использование более производительного процессора, например четырехъядерного? Именно такие процессоры сейчас часто советуют владельцам высокопроизводительных видеокарт.

Для того чтобы проверить на сколько четырехъядерный процессор окажется предпочтительнее, мы заменили Intel Core 2 Duo E6300 @2800 на Intel Core 2 Quad Q9450 @2800.

Тестовый пакет

Intel Core 2 Duo E6300 @2800

Intel Core 2 Quad Q9450 @2800

Прирост производительности, %

Как видите, прирост производительности на четырехъядерном процессоре действительно есть, и порою немалый, но именно в высоких разрешениях, для работы в которых и покупают дорогие видеокарты, ускорение наименьшее.

Intel Core 2 Quad против AMD Phenom X4

Еще одной часто озвучиваемой рекомендацией относительно комплектации производительной игровой системы является предпочтение процессорам Intel, как более быстрым. Что ж, попробуем проверить на практике, насколько игровая система на базе процессора AMD Phenom X4 окажется медленнее, если такой факт будет иметь место.

Для «забега» в равных условиях мы разогнали процессор AMD Phenom X4 9850 Black Edition до частоты 2,8 ГГц, что достаточно легко делается только изменением множителя, и провели серию тестов на новой платформе ASUS M3A32-MVP DELUXE/WIFI-AP . При этом оперативная память работала в режиме DDR2-800 с такими же таймингами, как и на системе с процессором Intel Core 2 Quad Q9450.

Тестовый пакет

AMD Phenom X4 9850 @2800

Intel Core 2 Quad Q9450 @2800

Разность производительности, %

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

Call Of Juarez, Maximum Quality, NO AA/AF, fps

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

Prey, Maximum Quality, AA4x/AF16x, fps

Crysis, Maximum Quality, NO AA/AF, fps

Crysis, Maximum Quality, AA4x/AF16x, fps

Итак, при работе на одинаковых тактовых частотах действительно система с процессором Intel Core 2 Quad оказывается немного быстрее аналогичной с процессором AMD Phenom X4. При этом, чем выше разрешение и больше требований к качеству изображения, тем меньше превосходство процессоров Intel. Конечно, используя самую дорогую и производительную видеокарту, маловероятно, что покупатель будет экономить на процессоре и материнской плате, но в других условиях мы бы не рекомендовали «однозначно Intel Core 2 Quad», а предложили бы хорошенько взвесить варианты систем с процессорами от AMD и Intel.

Разгон

Для разгона видеокарты мы использовали утилиту RivaTuner, при этом, как было отмечено выше, корпус был открыт, а дополнительный приток свежего воздуха к видеокарте обеспечивался бытовым вентилятором.

Частота растрового домена в результате разгона поднялась до отметки в 670 МГц, что на 70 МГц (+11,67%) выше значения по умолчанию. Разгон шейдерного домена оказался чуть лучше и частотные показатели, в отличие от значений по умолчанию, возросли на 162 МГц (+12,5%). А вот разгон памяти превзошёл все ожидания. Стабильная работа была отмечена на эффективной частоте почти 2650 МГц, что на 430 МГц (+19,5%) выше номинальной. Отмечаем отменный разгонный потенциал тестируемого ускорителя, особенно видеопамяти.

Теперь посмотрим, как разгон одиночной видеокарты сказывается на производительности:

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

Prey, Maximum Quality, AA4x/AF16x, fps

Crysis, Maximum Quality, AA4x/AF16x, fps

Только в наиболее тяжелых видеорежимах можно будет увидеть прирост производительности от разгона. Такой результат был достаточно предсказуем. При этом, вполне резонно будет заметить, что ограничивающим фактором почти во всех тестах стал процессор. Но настоятельно рекомендовать владельцам ускорителей на NVIDIA GeForce GTX 280 только самые быстрые процессоры мы не будем, т.к. даже с двухъядерным процессором, который работает на частоте 2,8 ГГц, а может и меньше, можно будет совершенно комфортно играть в практически любые игры на самых максимальных настройках в высоких разрешениях. В таких условиях можно будет увидеть даже прирост от разгона. Но, конечно же, при возможности, на процессоре экономить не стоит, раз не экономили на видеокарте и блоке питания.

Выводы

Вынуждены признать, что все видеокарты на основе GeForce GTX 280 сегодня являются самыми производительными одночиповыми графическими ускорителями, которые способны обеспечить достаточную производительность в любой современной игре. Но, с другой стороны, это и самые дорогие современные видеокарты и самые требовательные к энергообеспечению и, в общем-то, самые «прожорливые» и горячие. То есть GeForce GTX 280 получился во всех отношениях самый-самый, и в плохих и хороших.

Мы говорим обобщенно об ускорителях на GeForce GTX 280, хотя героем обзора является ASUS ENGTX280/HTDP/1G/A, поскольку большинство из них являются точно такими же референсными образцами, отличающимися друг от друга только наклейками, комплектацией и упаковкой. Поэтому выбирая GeForce GTX 280 от ASUS, покупатель получает расширенную комплектацию с парой фирменных бонусов и широкую сеть сервисных центров, а в остальном превосходства над предложениями конкурентов нет.

Достоинства:

  • очень высокая производительность в игровых приложениях;
  • поддержка DirectX 10.0 (Shader Model 4.0) и OpenGL 2.1;
  • поддержка технологий NVIDIA CUDA и NVIDIA PhysX;
  • поддержка технологии 3-Way SLI;
  • хороший разгонный потенциал.

Недостатки:

  • система охлаждения занимает 2 слота, не отличается высокой эффективностью и комфортной тишиной работы;
  • довольно высокая стоимость графического ускорителя.

Выражаем благодарность фирме ООО ПФ Сервис (г. Днепропетровск) за предоставленную для тестирования видеокарту.

При написании статьи были использованы материалы с сайта http://www.ixbt.com/ .

Статья прочитана 19856 раз(а)

Подписаться на наши каналы

Однако вначале о технических особенностях. Являясь логичным развитием серий GeForce 8 и GeForce 9, представлявших первое поколение унифицированной визуальной вычислительной архитектуры NVIDIA, новинки семейства GeForce GTX 200 выполнены на базе второго поколения этой архитектуры.

Графические процессоры NVIDIA GeForce GTX 280 и 260 представляют собой наиболее массивные и сложные графические чипы из известных доселе – шутка ли, 1,4 миллиарда транзисторов в каждом! Наиболее производительное решение - GeForce GTX 280, обладает 240 шейдерными процессорами, 80 текстурными процессорами, поддерживает до 1 Гб видеопамяти. Подробные характеристики чипов GeForce GTX 280 и GeForce GTX 260 приведены в таблице ниже.

Спецификации NVIDIA GeForce GTX 280 и GTX 260

Графическое ядро
Нормы технологического процесса
Количество транзисторов
Тактовая частота графики (в т.ч. диспетчера, модулей текстур и ROP)
Тактовые частоты процессорных модулей
Количество процессорных модулей
Тактовая частота памяти (частота/данные)

1107 МГц / 2214 МГц

999 МГц / 1998 МГц

Ширина интерфейса памяти
Пропускная способность шины памяти
Объём памяти
Количество модулей ROP
Количество модулей текстурной фильтрации
Производительность модулей текстурной фильтрации

48,2 Гигатекселей/с

36,9 Гигатекселей/с

Поддержка HDCP
Поддержка HDMI

Есть (адаптер DVI-HDMI)

Интерфейсы

2 x Dual-Link DVI-I
1 x 7-контактный HDTV

RAMDAC, МГц
Шина
Форм-фактор

Два слота

Конфигурация разъёмов питания

1 x 8-контактный
1 x 6-контактный

2 x 6-контактных

Максимальное энергопотребление
Граничная температура GPU

Фактически современное графическое ядро семейства GeForce GTX 200 можно представить как универсальный чип, поддерживающий два разных режима – графический и вычислительный. Архитектуру чипов семейств GeForce 8 и 9 обычно представляют массивами масштабируемых процессоров (Scalable Processor Array, SPA). Архитектура чипов семейства GeForce GTX 200 основана на доработанной и улучшенной архитектуре SPA, состоящей из ряда так называемых "кластеров обработки текстур" (TPC, Texture Processing Clusters) в графическом режиме или "кластеров обработки потоков" в режиме параллельного вычисления. При этом каждый модуль TPC состоит из массива потоковых мультипроцессоров (SM, Streaming Multiprocessors), и каждый SM содержит восемь процессорных ядер, также называемых потоковыми процессорами (SP, Streaming Processor), или тредовыми процессорами (TP, Thread Processor). Каждый SM также включает в себя процессоры текстурной фильтрации для графического режима, также используемый для различных операций фильтрации в вычислительном режиме. Ниже представлена блок-схема GeForce 280 GTX в традиционном графическом режиме.

Переключаясь в вычислительный режим, аппаратный диспетчер потоков (вверху) управляет тредами TPC.

Кластер TPC при ближайшем рассмотрении: распределённая память для каждого SM; каждое процессорное ядро SM может распределять данные между другими ядрами SM посредством распределённой памяти, без необходимости обращения к внешней подсистеме памяти.

Таким образом, унифицированная шейдерная и компьютерная архитектура NVIDIA использует две совершенно разные вычислительные модели: для работы TPC используется MIMD (multiple instruction, multiple data), для вычислений SM - SIMT (single instruction, multiple thread), продвинутая версия, SIMD (single instruction, multiple data). Касаясь общих характеристик, по сравнению с предшествовавшими поколениями чипов семейство GeForce GTX 200 обладает следующими преимуществами:

  • Возможность обработки втрое большего количества потоков данных в единицу времени
  • Новый дизайн планировщика выполнения команд, с повышенной на 20% эффективностью обработки текстур
  • 512-битный интерфейс памяти (384 бита у предыдущего поколения)
  • Оптимизированный процесс z-выборки и компрессии для достижения лучших результатов производительности при высоких разрешениях экрана
  • Архитектурные усовершенствования для увеличения производительности при обработке теней
  • Полноскоростной блендинг буфера кадров (против полускоростного у 8800 GTX)
  • Вдвое увеличенный буфер команд для повышения производительности вычислений
  • Удвоенное количество регистров для более оперативного обсчёта длинных и сложных шейдеров
  • Удвоенная точность обсчета данных с плавающей запятой в соответствии со стандартом версии IEEE 754R
  • Аппаратная поддержка 10-битного цветового пространства (только с интерфейсом DisplayPort)
Так выглядит список основных характеристик новых чипов:
  • Поддержка NVIDIA PhysX
  • Поддержка Microsoft DirectX 10, Shader Model 4.0
  • Поддержка технологии NVIDIA CUDA
  • Поддержка шины PCI Express 2.0
  • Поддержка технологии GigaThread
  • Движок NVIDIA Lumenex
  • 128-битные вычисления с плавающей запятой (HDR)
  • Поддержка OpenGL 2.1
  • Поддержка Dual Dual-link DVI
  • Поддержка технологии NVIDIA PureVideo HD
  • Поддержка технологии NVIDIA HybridPower
Отдельно отмечено, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов. Основанная на пакете физических алгоритмов, реализация технологии NVIDIA PhysX представляет собой мощный физический движок для вычислений в реальном времени. В настоящее время поддержка PhysX реализована в более чем 150 играх. В сочетании с мощным GPU, движок PhysX обеспечивает значительное увеличение физической вычислительной мощи, особенно в таких моментах как создание взрывов с разлётом пыли и осколков, персонажей со сложной мимикой, новых видов оружия с фантастическими эффектами, реалистично надетых или разрываемых тканей, тумана и дыма с динамическим обтеканием объектов. Ещё одно немаловажное новшество – новые режимы экономии энергии. Благодаря использованию прецизионного 65 нм техпроцесса и новых схемотехнических решений удалось добиться более гибкого и динамичного контроля энергопотребления. Так, потребление семейства графических чипов GeForce GTX 200 в ждущем режиме или в режиме 2D составляет около 25 Вт; при воспроизведении фильма Blu-ray DVD - около 35 Вт; при полной 3D нагрузке TDP не превышает 236 Вт. Графический чип GeForce GTX 200 может вовсе отключаться благодаря поддержке технологии HybridPower с материнскими платами на HybridPower-чипсетах nForce с интегрированной графикой (например, nForce 780a или 790i), при этом поток графики незначительной интенсивности попросту обсчитывается GPU, интегрированным в системную плату. Помимо этого, GPU семейства GeForce GTX 200 также обладают специальными модулями контроля энергопотребления, призванными отключать блоки графического процессора, не задействованные в данный момент.

Пользователь может конфигурировать систему на базе двух или трёх видеокарт семейства GeForce GTX 200 в режиме SLI при использовании материнских плат на базе соответствующих чипсетов nForce. В традиционном режиме Standard SLI (с двумя видеокартами) декларируется примерно 60-90% прирост производительности в играх; в режиме 3-way SLI – максимальное количество кадров в секунду при максимальных разрешениях экрана.

Следующая инновация – поддержка нового интерфейса DisplayPort с разрешениями выше 2560 х 1600, с 10-битным цветовым пространством (предыдущие поколения графики GeForce обладали внутренней поддержкой 10-битной обработки данных, но выводился только 8-битные компонентные цвета RGB). В рамках анонса новой серии графических процессоров семейства GeForce GTX 200 компания NVIDIA предлагает совершенно по-новому взглянуть на роль центрального и графического процессоров в современной сбалансированной настольной системе. Такой оптимизированный ПК , базирующийся на концепции гетерогенных вычислений (то есть, вычислений потока разнородных разнотипных задач), по мнению специалистов NVIDIA, обладает гораздо более сбалансированной архитектурой и значительно большим вычислительным потенциалом. Имеется в виду сочетание центрального процессора со сравнительно умеренной производительностью с наиболее мощной графикой или даже SLI-системой, что позволяет добиться пиковой производительности в наиболее тяжёлых играх, 3D и медиа приложениях. Иными словами, вкратце концепцию можно сформулировать так: центральный процессор в современной системе берёт на себя служебные функции, в то время как бремя тяжёлых вычислений ложится на графическую систему. Примерно те же выводы (правда, более комплексные и численно обоснованные) наблюдаются в серии наших статей, посвящённых исследованиям зависимости производительности от ключевых элементов системы, см. статьи Процессорозависимость видеосистемы. Часть I - Анализ ; Процессорозависимость видеосистемы. Часть II – Влияние объема кэш-памяти CPU и скорости оперативной памяти ; Ботозависимость, или зачем 3D-играм мощный CPU ; Процессорозависимость видеосистемы. Переходная область. "Критическая" точка частоты CPU . Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA. CUDA (Compute Unified Device Architecture) - вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах - в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений. Как было указано выше, графическое ядро семейства GeForce GTX 200 можно представить как чип, поддерживающий графический и вычислительный режимы. В одном из этих режимов – "вычислительном", тот же GeForce GTX 280 превращается в программируемый мультипроцессор с 240 ядрами и 1 Гб выделенной памяти – этакий выделенный суперкомпьютер с производительностью под терафлоп, что в разы повышает результативность работы с приложениями, хорошо распараллеливающими данные, например, кодирование видео, научные вычисления и пр. Графические процессоры семейств GeForce 8 и 9 стали первыми на рынке, поддерживающими технологию CUDA, сейчас их продано более 70 млн. штук и интерес к проекту CUDA постоянно растёт. Подробнее узнать о проекте и скачать файлы, необходимые для начала работы можно . В качестве примера на приведённых ниже скриншотах показаны примеры прироста производительности вычислений, полученные независимыми пользователями технологии CUDA.

Подводя итог нашему краткому исследованию архитектурных и технологических улучшений, реализованных в новом поколении графических процессоров NVIDIA, выделим главные моменты. Второе поколение унифицированной архитектуры визуальных вычислений, реализованное в семействе GeForce GTX 200, является значительным шагом вперёд по сравнению с предшествовавшими поколениями GeForce 8 и 9.

По сравнению с предыдущим лидером GeForce 8800 GTX новый флагманский процессор GeForce GTX 280 обладает в 1,88 раза большим количеством процессорных ядер; способен обрабатывать примерно в 2,5 больше тредов на чип; обладает удвоенным размером файловых регистров и поддержкой вычислений с плавающей запятой с удвоенной точностью; поддерживает 1 Гб памяти с 512-битным интерфейсом; оборудован более эффективным диспетчером команд и улучшенными коммуникационными возможностями между элементами чипа; улучшенным модулем Z-буфера и компрессии, поддержкой 10-битной цветовой палитры и т.д. Впервые новое поколение чипов GeForce GTX 200 изначально позиционируется не только в качестве мощного 3D графического акселератора, но также в качестве серьёзного компьютерного решения для параллельных вычислений. Ожидается, что видеокарты GeForce GTX 280 с 1 Гб памяти появятся в рознице по цене порядка $649, новинки на базе GeForce GTX 260 с 896 Мб памяти – по цене около $449 (или даже $399). Проверить, насколько рекомендованные цены совпадают в реальной розницей, можно будет уже совсем скоро, поскольку по всем данным анонс семейства GeForce GTX 200 отнюдь не "бумажный", решения на этих чипах объявили многие партнёры NVIDIA, и в самом ближайшем времени новинки объявятся на прилавках. Теперь переходим к описанию первой видеокарты GeForce GTX 280, попавшей в нашу лабораторию, и к результатам её тестирования.

Общие характеристики

Тип видеокарты

Современные видеоадаптеры можно условно разбить на три класса, которые будут определять производительность и стоимость видеокарты: бюджетные, бизнес-класс и топовые модели. Бюджетные карты не сильно бьют по карману, но не позволят играть в современные, требовательные к ресурсам игры. Модели бизнес-класса позволят играть во все современные игры, но с ограничением по разрешению изображения, частоте кадров и другим параметрам. Топовые модели дают вам возможность играть в самые передовые игры с максимальным качеством.

офисная Графический процессор NVIDIA GeForce GTX 280 Интерфейс

Тип слота, в который устанавливается видеокарта. Через слот происходит обмен данными между видеокартой и материнской платой. При выборе видеокарты необходимо исходить из того, какой слот используется в вашей материнской плате. Наиболее распространены два типа подключения видеокарт - AGP, PCI-E 16x и PCI-E 1x.Словарь терминов по категории Видеокарты

PCI-E 16x 2.0 Кодовое название графического процессора GT200 Техпроцесс 65 нм Количество поддерживаемых мониторов 2 Максимальное разрешение 2560x1600

Технические характеристики

Частота графического процессора

Частота графического процессора во многом определяет производительность видеосистемы. Однако при повышении частоты работы процессора увеличивается и его тепловыделение. Поэтому для современных высокопроизводительных видеосистем приходится устанавливать мощную систему охлаждения, которая занимает дополнительное место и зачастую создает сильный шум при работе.Словарь терминов по категории Видеокарты

602 МГц Частота шейдерных блоков 1296 МГц Объем видеопамяти 1024 МБ Тип видеопамяти GDDR3 Частота видеопамяти 2210 МГц Разрядность шины видеопамяти 512 бит Частота RAMDAC 400 МГц Поддержка режима SLI/CrossFire есть Поддержка 3-Way SLI есть

Подключение

Разъемы поддержка HDCP, TV-out, компонентный

Математический блок

Число универсальных процессоров 240 Версия шейдеров

Шейдеры - это микропрограммы, которые позволяют воспроизводить такие эффекты как, например, металлический блеск, поверхность воды, реалистичный объемный туман, всевозможные деформации объектов, эффект motion blur (размытие при движении) и т. д. Чем выше версия шейдеров, тем больше у видеокарты возможностей по созданию специальных эффектов.Словарь терминов по категории Видеокарты

4.0 Число текстурных блоков 80 Число блоков растеризации 32 Максимальная степень анизотропной фильтрации

Какой самый важный компонент в геймерском компьютере? Кто-то ответит, что процессор. Другие заявят, что оперативная память. Но прав будет тот, кто скажет, что видеокарта. Именно этот компонент отвечает за качественный вывод графической информации. И чем мощнее адаптер, тем больше вероятность увидеть все те "красивости", которые были задуманы создателем игры. GTX 280 отличается высочайшей производительностью и вполне может раскрыть весь потенциал игры. Но есть одно но: эта карта заточена под высокий FPS, а не под качество изображения. Однако геймерам она принесет только радость. Давайте подробно разберем сей интересный адаптер. Но сначала несколько слов о производителе.

Немного о компании

NVidia является одним из самых известных производителей графических ускорителей. Компания была основана в 1993 году. Изначально выпускались только чипы и наборы логических решений для компьютеров. Однако со временем компания освоила выпуск высокопроизводительных графических адаптеров. В самом начале своей жизни NVidia была чуть ли не единственной компанией, выпускающей продукцию такого плана. Всем известная AMD тогда занималась только процессорами. Видеокарты серии GeForce стали легендарными. Теперь каждый уважающий себя геймер мечтает о топовой видеокарте от NVidia. Но далеко не все могут себе это позволить. Впрочем, последнее заявление не относится к нашему сегодняшнему герою - GeForce GTX 280.

В настоящее время идет конкурентная борьба между адаптерами от NVidia и аналогичными продуктами от AMD. Последние явно проигрывают, ибо не обладают такой производительностью и энергоэффективностью. Однако цена их на порядок меньше. Тем не менее топовые видеокарты от NVidia пользуются заслуженной популярностью среди профессионалов и любителей игр. Только эти карты обеспечивают наилучшее качество картинки и наивысшее количество FPS. Успехи компании в выпуске видеокарт поистине феноменальны. Однако перейдем к обзору. Наш сегодняшний герой - 280. Отличная видеокарта для домашнего компьютера. Рассмотрим ее подробнее.

Лирическое отступление

Не стоит забывать, что 280 была выпущена в далеком 2008 году. Поэтому сравнивать ее с современными продуктами - верх безумия. Производительность будет несравнима. На данный момент этот адаптер интересен именно как недорогое и простое решение для домашнего компьютера, заточенного под работу. Да, карта запросто потянет Full HD-видео и не особо требовательные игры (даже из современных образцов). Но рассчитывать на запуск танков с максимальными настройками графики не стоит.

Конечно, при помощи разгона (карта поддерживает и эту опцию) и некоторых твиков можно заставить адаптер воспроизводить и современные шедевры игровой индустрии. Но стоит учесть, что без хорошей системы охлаждения это весьма рискованно. Да и изнашивается видеоадаптер быстрее, чем положено. Поэтому лучше пользоваться штатным режимом и не нагружать видеокарту сверх меры. Однако перейдем к техническим характеристикам устройства и попытаемся понять, что инновационного было в ней на момент выхода.

Технические характеристики

Видеокарта основана на чипе, выполненном по технологии 65 нм. Что это значит? Это значит, что на чипсете меньшей площади можно разместить в два раза больше кристаллов, чем при использовании технологии предыдущего поколения. Это помогло уменьшить видеокарту в размере и сделать ее намного более энергоэффективной. Также можно в положительном ключе решить проблему теплоотвода. Но это то, что касается физических параметров. А как насчет других характеристик? Тактовая частота графики составляет 602 мегагерца. Это весьма важный параметр. Многие считают, что "крутость" адаптера зависит от объема памяти, но это не так. На производительность влияет как раз рабочая частота. И здесь она довольно приличная. Ширина интерфейса памяти равна 512 бит. Этот параметр влияет также на глубину цвета. Пропускная способность шины составляет 141 гигабит в секунду. Это значит, что GeForce GTX 280 способна обрабатывать информацию в разы быстрее предшественников.

Теперь о том, на что обращают сугубое внимание неопытные пользователи, - объем памяти. Он равен 1 гигабайту. Это много или мало? Как уже говорилось, на производительность это влияет не так сильно, как рабочая частота. Однако нелишним будет иметь запас памяти. Но и гигабайта за глаза хватит для уверенной работы с обычными повседневными задачами. Помимо всего прочего, видеокарта поддерживает технологию SLI и подключается с помощью слота PCI Express 2.0. То есть она подойдет подавляющему большинству современных компьютеров. Даже несмотря на ее "раритетность". А теперь рассмотрим основные интерфейсы GeForce GTX 280.

Интерфейсы подключения

Итак, как подключить монитор к этой видеокарте? Стоит отметить, что VGA гнезда там нет и в помине. А посему старые мониторы, использующие эту технологию, могут подключаться к адаптеру только с помощью переходника. Видеокарта NVidia GeForce GTX 280 обладает только двумя разъемами формата DVI. Есть также возможность подключения по HDMI. Но поддерживается только весьма древняя версия этой технологии. Тем не менее даже такого скудного набора интерфейсов достаточно для подключения любого монитора. Еще одна особенность: есть в наличии разъем типа SLI, который позволяет объединить две аналогичные видеокарты в одно целое при помощи технологии CrossFire. Как раз эта "фишка" в 2008 году была уникальной. Такое объединение двух адаптеров помогает здорово увеличить производительность.

Многие пользователи сетуют на то, что в этой карте поддерживаемая технология HDMI крайне старой версии. Но не стоит забывать и о том, что данный адаптер был выпущен в 2008 году. Тогда просто не существовало нынешних технологий. Для своих лет адаптер укомплектован весьма неплохим набором интерфейсов и разъемов. А если нужно подключить еще что-нибудь, то можно использовать переходники и разветвители. Этого никто не запрещает. Да и конструкция видеокарты позволяет. А теперь немного о различных модификациях данной видеокарты.

Аналоги от MSI

MSI GeForce GTX 280 отличается от "оригинала" лишь тем, что она немного разогнана. Так, эффективная рабочая частота шины увеличена до 1500 мегагерц. Это позволило добиться большей производительности. Также была полностью переработана система охлаждения. Теплоотвод стал более эффективным. А еще заметны изменения по части дизайна. Теперь карта облачена в современный пластиковый корпус с фирменными цветами MSI. О принадлежности к "Нвидии" теперь говорит только небольшой шильдик с названием компании.

К слову, карты от МСИ отличаются долговечностью. Чего не скажешь об адаптерах от других производителей. По мнению пользователей, именно эти видеокарты живут дольше. Даже при том условии, что их разгоняли. А любителей этого дела в наших широтах полно. Что касается цены, то эти адаптеры относятся к среднему ценовому сегменту.

Аналоги от Zotac

Эта компания известна тем, что делает из проходных версий видеокарт настоящие произведения искусства и здорово увеличивает их производительность. Так, Zotac GeForce GTX 280 может дать фору даже современным видеокартам начального уровня. Конструкторы из "Зотак" умудрились не только увеличить частоту шины до запредельного уровня, но и расширить объем встроенной памяти. Естественно, такие изменения потребовали кардинальной переработки системы охлаждения. И она здесь действительно эффективна.

"Зотак" выпускает топовые видеокарты. Но в них также есть возможность разгона. Поэтому на данный момент они еще актуальны, особенно разогнанные экземпляры. Прелесть этих адаптеров заключается в том, что система охлаждения их позволяет баловаться с разгоном, не заботясь о возможных последствиях. Это настоящая находка для гиков и геймеров. Цена на эти модели видеокарт, конечно, соответствующая. Купить их за копейки точно не получится. Но зато пользователь точно знает, за что он платит.

Аналоги от Palit

Эта контора берет адаптер от известного производителя, навешивает на него немного фирменных "плюшек" и продает как свое изделие. Хотя ничего особенного в Palit GeForce GTX 280 нет. Производительность осталась на том же уровне, объем встроенной памяти тоже. Единственное нововведение - система охлаждения. Но сие не так важно. Также заметны изменения в дизайне. Это, пожалуй, единственное, над чем компания потрудилась на славу. В общем, "Палит" - та же "Нвидия" с другими цветами.

Карты от "Палит" самые дешевые в нашем обзоре. Похвальных отзывов у них хватает. Но примерно такое же количество и отрицательных. Большинство пользователей жалуются на крайне низкую "живучесть". Это наименее надежные адаптеры из всех существующих. Поэтому, естественно, и цена соответствующая. Однако многие выбирают именно этот вариант как раз по причине приемлемой стоимости.

Какие игры пойдут на этом адаптере?

Ответить на этот вопрос одним предложением невозможно. Все зависит от настроек графики. Конечно, современные игрушки никак не пойдут на ультранастройках. Да даже на средние можно не рассчитывать. А вот низкие настройки графики GeForce GTX 280 1GB все еще по силам. Так, к примеру, всем известные танки показывают на этой карте стабильные 50 кадров в секунду на минимальных настройках графики. Не так уж и плохо. При более тонкой настройке возможно даже добиться комфортных 60 FPS. "Варкрафт" версии "Туманы Пандарии" легко выдает и 70, и 120 кадров в секунду. Естественно, при минимальных настройках графики. Однако лучшие результаты могут быть достигнуты с играми того же года, что и видеокарта: 2008. Если в рекомендуемых системных требованиях игрушки в графе "Видеокарта" есть строка типа NVidia GeForce GTX 280 series or higher, то можно смело запускать ее на максимальных настройках графики. Красивая картинка и отличная производительность гарантированы.

Инструкция пользователя

Обычно эта "бумажка" идет в комплекте с видеоадаптером. Она находится в коробке. Вместе с самой картой. Если используется модификация от другого производителя (Palit GeForce GTX 280), инструкция может находиться на диске с драйверами и необходимым программным обеспечением. В ней по полочкам разложена вся информация о карте. Также даны исчерпывающие разъяснения о том, что куда подключать. И вся эта информация на русском языке с адекватным переводом. Это знак того, что компания дорожит своей репутацией и по-человечески относится к клиентам. И не имеет значения, из какой они страны.

Конечно, бумажная инструкция предпочтительнее. Ведь не всегда есть возможность запустить диск. Но и без инструкции понятно, как подключать видеокарту. С этим справится даже ребенок. Однако на диске инструкция более полная. Также она снабжена довольно обширным мультимедийным материалом, в котором все разложено по полочкам. И если у пользователя есть ноутбук или второй компьютер, то лучше изучить всю необходимую информацию непосредственно с диска.



Рассказать друзьям