Двухголовый король — обзор NVIDIA GTX 690
Вступление
После удачного анонса GTX 680, которая уверенно «сделала» Radeon HD 7970, NVIDIA должна почивать на лаврах: злые языки, пророчащие очередной двойной старт (а-ля GTX 480 и GTX 580) более не беспокоят, новинка на видеопроцессоре GK104 обходит конкурента по производительности, энергоэффективности, уровню шума и габаритам. Давно у «зеленых» не было такого удачного решения!
Но проходит совсем немного времени, и российское представительство NVIDIA засылает в Ferra.ru вот такую коробку:
Впечатления двоякие: материал и форма чем-то напоминает посылочные ящики, широко используемые почтовой службой во времена СССР, но шрифтом и качеством отделки походит на коробки с оружием и патронами. Что внутри?
Тут-то и пригодился малогабаритный ломик, присланный несколько недель назад.
С его помощью крышка была сорвана за пару минут, а под ней на поролоновых подушках покоилась видеокарта:
Что же это? Полноценный GPU Kepler, мелкие намеки на который встречались то тут, то там при изучении характеристик и внешности GTX 680? Или, может быть, разогнанная версия той же 680-й с измененной системой охлаждения и «усиленным» дизайном PCB (то-то западные оверклокеры сетовали на малый запас прочности у штатной печатной платы GTX 680)?
Все оказалось гораздо проще: перед нами GTX 690, двухчиповая (или, выражаясь разговорным языком — двухголовая) плата с парой полноценных GK104 на борту.
Строение GTX 690
Уж не знаю, что побудило NVIDIA выпустить двойной тандем в столь короткие сроки: верхние позиции отвоеваны силами GTX 680, скорых анонсов более быстрых решений у конкурента не предвидится. Вот бы ещё в средний сектор подбавить решений на базе свежей архитектуры — судя по прогрессу, достигнутому NVIDIA при разработке Kepler, его обрезанные решения с ещё более «холодным нравом» и замечательной производительностью могли бы потеснить семитысячные решения в наиболее интересующем пользователей среднем ценовом сегменте.
А тут — 690-я, которая сама по себе является сложным (а значит, дорогим) решением, и предназначается для хардкорных геймеров. Тем более, что в прошлом подобные решения давались компании не без труда. Чего только стоит переход с двухплатного решения на одноплатное, которое случилось уже на закате линейки 2хх. Правда, 590-я была удачнее предшественницы, однако холодной её назвать язык не поворачивался. Многие из тех, кому довелось опробовать эти карты в деле, заговаривали о пользе жидкостного охлаждения для таких решений. У «красных» проблемы были примерно те же — значительное энергопотребление, высокие рабочие температуры… В общем, при проектировании таких решений перед производителями встает непростая задача: ужать до размеров одной платы в два раза больше элементов, организовать отвод и рассеивание огромного количества тепла, сделать это решение конкурентоспособным и доступным для покупателя. Видимо, окрыленная успехом GTX 680 (который, кстати, отличался вполне умеренными аппетитами), NVIDIA рискнула представить решение с двумя графическими процессорами.
Внешностью GTX 690 явно удалась. За счет использования стальных вставок, хромированных болтов и двух пластиковых окон более нет ощущения, что перед тобой какое-то техническое решение в черном пластике, наспех украшенное наклейкой с логотипом компании. 690-я уже больше походит на продукт высоких (чуть не сказал космических) технологий. В корпусе СО даже смонтирована подсветка надписи GEFORCE GTX, что на верхнем торце видеокарты (и при установке в корпус будет обращена к пользователю).
На одном из предоставленных NVIDIA фото запечатлен системный блок со SLi-тандемом из двух GTX 690, у которых мягким зеленым светом подсвечены два окна. У нашего сэмпла подобной иллюминации обнаружить не удалось. Но и без неё система охлаждения производит очень приятное впечатление, располагающее к дальнейшему знакомству с картой.
С технической точки зрения в кулере на GTX 690 все стандартно: на каждый из графических процессоров, разнесенных по разным сторонам PCB, установлен наборный радиатор из 36 алюминиевых ребер, тепло по которым «разносит» испарительная камера. В центре, на алюминиевой платформе-основе, закреплен 90-мм вентилятор, прогоняющий через ребра радиаторов воздух, который выбрасывается с двух торцов платы.
Учитывая жесткие габаритные рамки, такую реализацию можно назвать одной из самых грамотных и эффективных с точки зрения шума и отвода тепла: крупный вентилятор создает заметно меньше аэродинамического шума при работе, чем малогабаритная многолопастная турбина при сравнимом объеме воздушного потока. В данном же случае за счет значительного расстояния между ребрами и отсутствия направляющих поток изгибов снижается аэродинамическое сопротивление радиатора, что также положительно влияет на уровень шума.
Третий немаловажный момент: оба радиатора, установленные на видеопроцессорах, закреплены отдельными подпружиненными винтами и никак механически не связаны с алюминиевой основой.
Это, с одной стороны, обеспечивает хороший прижим к GPU каждого радиатора без применения сложных фиксирующих приспособлений, а с другой — дополнительно оберегает хрупкие кристаллы от механических нагрузок: их принимает на себя верхний кожух и алюминиевая основа. Последняя также является теплоотводом для силовых элементов подсистемы питания и микросхем памяти.
Примерно половина площади печатной платы отдана под преобразователь напряжения для графических процессоров. В пресс-релизе NVIDIA сказано ,что он десятифазный.
Позволю себе уточнение — на каждый GPU приходится по одному пятифазному преобразователю, управляемому контроллером NCP4208. Похожее строение подсистемы питания прежде было замечено только у ASUS GTX 590 DirectCU2, выпущенной в конце прошлого года. Ещё два преобразователя, «раскиданные» по углам платы, формируют напряжение питания для оперативной памяти. Видимо, наслушавшись негативных отзывов о подсистеме питания двухчиповых решений на графических процессорах прошлых поколений, NVIDIA в этот раз решила все сделать по-максимуму.
Заявленное производителем для GTX 690 TDP оставляет 300 ватт. Примечательно, что для GTX 680 TDP составляет 190 ватт. Простая арифметика подсказывает, что энергопотребление связки GPU+VRAM должно сократиться как минимум на 40 ватт, ведь в двухчиповой версии ещё присутствует PCI-E хаб PLX PEX8747, обеспечивающий взаимодействие видеочипов и потребляющий какое-то количество энергии.
Но 300 Вт — не предел: видеокарта оснащена двумя восьмипиновыми разъемами питания, что вместе с доступными через PCI-Ex16 разъем 75 ваттами дает 375 ватт. Путем нехитрых математических вычислений получаем 75 «запасных» ватт, которые могут быть «использованы» при разгоне платы.
Если все эти выкладки верны, то GTX 690 является самым выгодным решением по соотношению производительность/энергопотребление. В Reviewer's Guide от NVIDIA присутствует слайд, показывающий, что в некоторых приложениях по этому показателю (соотношения производительность/энергопотребление) она обходит GTX 590 в два раза! И при всей экономичности производитель не поленился развести мощную подсистему питания. Полагаю, оверклокеры будут довольны.
Но вернемся к описанию платы. Две связки из GPU и восьми микросхем памяти размещены с двух сторон платы. Они расположены очень компактно — расстояние между графическим процессором и чипами памяти меньше одного сантиметра!
Видеопроцессоры — полноценные GK104, ревизия A2.
Графический процессор GK104
Микросхемы памяти — Samsung K4G20325FD-FC03.
Микросхема видеопамяти производства Samsung
Частота GPU — 950 МГц, буст до 1020 МГц, памяти — 1500(6000) МГц. Как видно, от полноценной GTX 680 690-я отличается лишь заниженной на 56 МГц базовой частотой ядра. Кстати, обратите внимание: GPU-Z версии 0.6.0 корректно распознал GK104, установленный на GTX 680, тогда как у GTX 690 четыре поля остаются затемненными. Новая ревизия? Судя по маркировке — нет, однако точной информацией я не располагаю. Вполне возможно, что в более поздние кристаллы были внесены какие-либо косметические изменения, не нашедшие отражения в маркировке.
С Boost-частотой вышел интересный момент: NVIDIA в презентации и GPU-Z рапортуют о 1019-1020 МГц, а по факту (в играх) она достигала 1075 МГц, т.е. даже превышала теоретическую Boost-частоту для GTX 680 (1058 МГц). То есть, несмотря на снижение основной тактовой частоты на пятьдесят с лишком мегагерц, по факту GTX 690 является SLI-связкой из пары полноценных GTX 680, только при этом занимает меньше места и потребляет меньше энергии.
На стальную планку крепления выведено четыре разъема — три DVI и один miniDisplayPort.
На мой взгляд, такая конфигурация наиболее удачна: Многие пользователи отдают предпочтение DVI или HDMI, а DisplayPort в России мало распространен (а его уменьшенная версия так и вовсе большая редкость). Переходники с DVI на HDMI стоят копейки и прилагаются к каждой плате (как ранее с D-Sub на DVI), так что с подключением телевизоров и ЖК-панелей трудностей возникнуть не должно. Лишь один маленький недостаток есть у такого набора выходов — занимаемая площадь. DVI — самый крупногабаритный цифровой разъем (даже по сравнению с аналоговым D-Sub) из всех распаиваемых на видеокартах, и третью розетку пришлось размещать на втором слоте, пожертвовав при этом вентиляционными отверстиями. Под выброс горячего воздуха от ближнего GPU отведена лишь четверть площади планки крепления, тогда как противоположное «выхлопное отверстие» ничем не закрыто (или, говоря другими словами, нет преград для отвода нагретого воздуха).
Предполагаю, что это негативно скажется на температуре ближнего к планке GPU.
На этом теоретическая часть (или, если быть точнее — теоретическая с элементами практики) закончена, и я перехожу к рассмотрению результатов тестов. Архитектурные особенности нового графического процессора NVIDIA, GK104, были подробно рассмотрены в статье по GTX 680, и повторять сказанное всего несколько недель назад не вижу особого смысла.
Для составления общего впечатления об используемых в тестах видеокартах приводим таблицу характеристик GTX 690, дополненную данными из прошлой статьи по одночиповому флагману (GTX 680), топовому решению предыдущего поколения (GTX 580) и флагману компании AMD — Radeon HD 7970.
Таблица характеристик
NVIDIA GTX 690 | NVIDIA GTX 680 | NVIDIA GTX 580 | AMD Radeon HD 7970 | |
Ядро | 2x GK104 | GK104 | GF110 | Tahiti |
Количество транзисторов, млрд. шт | 2x 3.5 | 3.5 | 3.0 | 4.3 |
Техпроцесс, нм | 28 | 28 | 40 | 28 |
Количество потоковых процессоров | 2x 1536 | 1536 | 512 | 2048 |
Количество блоков (ROPs) | 2x 32 | 32 | 48 | 32 |
Частота ядра, МГц | 950 | 1006 | 772 | 925 |
Шина памяти, бит | 2x 256 | 256 | 384 | 384 |
Тип памяти | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
Объем памяти, Мбайт | 2x 2048 | 2048 | 1536 | 3072 |
Частота памяти, МГц | 6000 | 6000 | 4008 | 5500 |
Поддерживаемая версия DirectX | 11.1 | 11.1 | 11 | 11.1 |
Стоимость, руб | 35999 | 18000 | 12000 | 17000 |
Тестовый стенд
- Процессор — Intel Core i7 3960X Extreme Edition. Тактовая частота 3,3 ГГц, кэш 15 Мбайт L3
- Материнская плата — ASUS P9X79 Deluxe (LGA 2011, BIOS 0906)
- Система охлаждения — Intel RTS2011LC (водяное охлаждение)
- Термоинтерфейс — Arctic Silver 5
- Оперативная память — Corsair XMS3 1600 МГц, 9-9-9-24, 4x4 Гбайт (Quad channel)
- Жесткий диск — Intel SSD 320 Series, 160 Гбайт
- Блок питания — Corsair HX850W
- Монитор — Dell U2711b, 2560 х 1440
- Контроллер энергопотребления — Watts up Pro
- Операционная система — Windows 7, x64
- Видеодрайверы — NVIDIA 301.10, AMD 12.3
Разгон
Поскольку в результатах будут фигурировать тесты разогнанной GTX 690, считаю правильным описать этот процесс до обсуждения производительности. Как и GTX 680, GTX 690 поддается разгону только с помощью утилиты eVGA PrecisionX, которая корректно опознает карту и позволяет повышать частоты по «новой методике».
На скриншоте можно видеть максимальные стабильные частоты, на которых функционировали оба графических ядра и видеопамять — 1215/3208(6416) МГц. Прирост составил 28% по графическому процессору и 7% по памяти. Отличный, доселе невиданный результат для референсной двухчиповой платы с штатной системой охлаждения, да ещё с автоматической регулировкой вентилятора!
GPU-Z
Для большей информативности привожу скриншот GPU-Z на закладке Sensors, запущенный под нагрузкой. Как видно по значению поля Power Consumtion, для нормального функционирования на 1215 МГц пришлось превысить установленный предел энергопотребления на 15%, и при этом ядро практически полностью перестало наращивать тактовую частоту.
К плюсам нового подхода NVIDIA к разгону можно отнести возможность самостоятельно задавать энергопотребление графического ядра посредством той же eVGA PrecisionX, разве что доступные пределы невелики. Минус — невозможность вручную поднимать напряжение питания на графическом процессоре и памяти, но серьезным препятствием при разгоне это считать не стоит: серьезных оверклокеров такие козни не остановят, а у рядового пользователя не будет соблазна покрутить ползунки и сжечь дорогую плату. Впрочем, ещё не вечер, жизнь архитектуры Kepler и её практической реализации в виде GK104 ещё только начинается, мало что ещё энтузиасты выдумают…
Результаты тестов
Для тестирования производительности GTX 690 использовались девять популярных в народе игр и один не менее популярный полусинтетический бенчмарк (3DMark11). Разрешений всего два — 2560 х 1440 и 1920 х 1080, потому как в более низких парные связки не раскроют всего потенциала, а более высокие разрешения — удел многомониторных конфигураций, о которых следует говорить отдельно. Настройки качества изображения, разумеется, были выдвинуты на максимум.
Результаты тестирования NVIDIA GTX 690 в 3DNark 11
Одно из трех приложений, отдающее предпочтение «красному» лагерю: GTX 690 даже в разгоне не смогла достигнуть результатов HD 7970 CF, хотя была близка, очень близка к этому. Примечательно, что GTX 680 без труда обходит в этом тесте одиночную HD 7970, так что тут налицо проблема в оптимизации драйверов. Прирост GTX 690 относительно 680-й составил 48% без разгона и 64% при работе на повышенных частотах GPU и памяти. Неплохой результат.
Результаты тестирования NVIDIA GTX 690 в игре Aliens VS Predator (2560 х 1440)
Результаты в игре Aliens VS Predator (1920 х 1080)
Второе лояльное к платам AMD приложение — игра Aliens VS Predator. При отличной масштабируемости (прирост 84% на штатных частотах в разрешении 1920 х 1080 и 91% в разрешении 2560 х 1440). GTX 690 так и не смогла догнать тандем из двух HD 7970. Прирост от разгона для двухчипового флагмана NVIDIA составил 8% в низком разрешении (1920 х 1080) и 10% в высоком (2560 х 1440).
Результаты тестирования NVIDIA GTX 690 в игре Batman: Arkham City (2560 х 1440)
Результаты в игре Batman: Arkham City (1920 х 1080)
B Batman: Arkham City Crossfire совершенно бесполезен, и GTX 690 сильно вырывается вперед. В высоком разрешении преимущество почти двукратное! Масштабируемость двух GPU GK104 относительно одиночного хорошо заметна лишь в 2560 х 1440 (63%), а вот прирост от разгона сохраняется с ростом разрешения и составляет что-то около трех процентов.
Результаты тестирования NVIDIA GTX 690 в игре Battlefield 3 (2560 х 1440)
Результаты тестирования NVIDIA GTX 690 в игре Battlefield 3 (1920 х 1080)
CrossFire в Battlefield 3 работает не всегда, поэтому в разрешении 2560 х 1440 GTX 690 опережает CF Radeon HD 7970 почти в два раза. Да что 690 — GTX 680 отстает от парной связки из двух Tahiti всего на один кадр! Да, софтверной команде AMD есть над чем поработать.
В 1920 х 1080 CrossFire работал устойчиво, однако и тут GTX 690 не оказалась в роли догоняющей, а выступила наравне. Разгон же помог вырвать лишние три кадра и стать безоговорочным лидером. Масштабируемость приличная: 82% в 1920 х 1080 и 88% в 2560 х 1440.
Результаты тестирования NVIDIA GTX 690 в игре Crysis 2 (2560 х 1440)
Результаты тестирования NVIDIA GTX 690 в игре Crysis 2 (1920 х 1080)
В Crysis 2 GTX 690 уверенно, в честной борьбе (читай — с корректно работающим CrossFire), побеждает связку из пары HD 7970, притом с увеличением разрешения до 2560 х 1440 разрыв увеличивается в два раза — с 15 до 30%. В этом же разрешении разрыв между одночиповым и двухчиповым решениями на GK104 составляет 100% — двукратный прирост! Да, тут сравнивается пара разогнанных GPU с одним неразогнанным, но сам факт достижения такого результата греет душу.
Результаты тестирования NVIDIA GTX 690 в игре Dirt 3 (2560 х 1440)
Результаты тестирования NVIDIA GTX 690 в игре Dirt 3 (1920 х 1080)
В Dirt 3 GTX 690 могла бы достигнуть и более высоких результатов, но, судя по цифрам в 1920 х 1080, все упирается в процессор. CrossFire-связка из пары HD 7970 отстает примерно на 10%. Это чуть меньше, чем разрыв между одночиповыми флагманами (чуть более 25%), потому как масштабирование у «красных» в данной игре чуть лучше. Однако те 60% прироста относительно GTX 680, что показала GTX 690 в 2560 х 1440 — стоящий результат.
Результаты тестирования NVIDIA GTX 690 в игре H.A.W.X. 2 (2560 х 1440)
Результаты тестирования NVIDIA GTX 690 в игре H.A.W.X. 2 (1920 х 1080)
«Леталка» H.A.W.X. 2 за легкостью движка и изрядной мощности GTX 690 не дала последней показать себя во всей красе. CrossFire-связка также уперлась в процессор (неслабый процессор, прошу заметить). Но даже несмотря на это, масштабируемость у решения NVIDIA хороша — 70% в 2560 х 1440.
Результаты тестирования NVIDIA GTX 690 в игре Lost Planet 2 (2560 х 1440)
Результаты в игре Lost Planet 2 (1920 х 1080)
В Lost Planet победителем выходит GTX 690 с преимуществом в 1 fps в 1920 х 1080 и 4 fps в 2560 х 1440. Видно, что для полного раскрытия потенциала 690-й требуется дальнейшее увеличение разрешения — в 2560 х 1440 разница между одночиповым и двухчиповым решением вырастает до 66%, а частота кадров по-прежнему остается высокой.
Результаты тестирования NVIDIA GTX 690 в игре Mafia 2 (2560 х 1440)
Результаты тестирования NVIDIA GTX 690 в игре Mafia 2 (1920 х 1080)
В Mafia II разрыв между связкой из двух Tahiti и пары GK104 с ростом разрешения падает из-за причуд CrossFire, что не мешает решениям NVIDIA опередить флагманов конкурента, каждый в своей категории. Прирост производительности GTX 690 относительно GTX 680 приличный — 54% в 1920 х 1080 и 73% в 2560 х 1440. Разгон GTX 690 в этой игре не дал никаких результатов, помешал процессор.
Результаты тестирования NVIDIA GTX 690 в игре Metro2033 (2560 х 1440)
Результаты в игре Metro2033 (1920 х 1080)
Третье и последнее приложение, в котором оба решения NVIDIA уступили лидерство «красным». Но, несмотря на это, виден почти двукратный прирост производительности GTX 690 относительно GTX 680 — если раньше разрешение 1920 х 1080 было совершенно непригодным для игры из-за низкого рефреша, то теперь играть можно без проблем.
Уровень шума NVIDIA GTX 690
Выбор крупного вентилятора сделал свое благое дело — в нагрузке уровень шума разогнанной GTX 690 меньше, чем у GTX 680 и Radeon HD 7970. И это при скорости вращения 2100 об/мин! При работе вентилятора на полную мощность уровень шума возрастает до 57 дБА, но на практике в этом нет никакой необходимости.
Энергопотребление NVIDIA GTX 690
Перед вами таблица с энергопотреблением системы с GTX 690. Разница по сравнению с парой HD 7970 составляет 55%! NVIDIA рекомендует для системы с двухчиповым флагманом качественный БП мощностью не менее 650 ватт, однако что-то мне подсказывает, что ладно сработанный 450-ваттник в силах «прокормить» тестовый стенд. Да, он будет прилично загружен, однако сам факт того, что устанавливаемый в домашние ПК среднего уровня блок питания способен удерживать топовую систему с «двухголовой» видеокартой, внушает уважение.
Температура NVIDIA GTX 690
Без сомнения, многих волнует уровень нагрева видеокарты. Он не сильно больше, чем у GTX 680 — 84 градуса в загрузке без разгона, 88 градусов в загрузке с разгоном. Отмечу, что мои опасения про планку, мешающую нормальному отводу нагретого воздуха, подтвердились, и ближний к ней GPU был всегда горячее дальнего на 4 градуса. В таблицу пошли пиковые показатели «горячего» кристалла.
Заключение
Без сомнения, GTX 690 — очень удачный продукт. Хорошая проработка «железной» части и драйверов позволила видеокарте обогнать связку из двух полноценных карт конкурента, оказавшись при этом тише, холоднее, экономичнее и заняв вдвое меньше места. Притом превосходство это было не чисто маркетинговым, а исчислялось десятками процентов, и его можно без особого труда заметить на глаз.
Драйвера работали безукоризненно, хорошо распределяя нагрузку между парой GK104. И хорошо видно, что для такой платы нужен более мощный (как вариант — хорошо разогнанный) процессор, и большинство приложений она вытянет на нескольких мониторах без потери качества.
Естественно, за все эти прелести нужно платить. Рекомендуемая цена платы составляет 36000 рублей без одного, что, с одной стороны, очень много. С другой же — это вполне адекватная цена за высокую производительность, «упакованную» в карту скромных размеров, потребляющую всего 300 ватт в пике и способную работать от БП из среднебюджетного ПК.
Выбор редакции