NVIDIA GTX TITAN — возвращение Kepler'а
Прошло немногим меньше года с тех пор, как NVIDIA представила миру видеоадаптер NVIDIA GTX 680. По сей день она являлась неоспоримым лидером по производительности. Новинка принесла с собой не только заметное увеличение производительности относительно предыдущего поколения (GTX 580), но и явила миру архитектуру Kepler, а также множество новых фич.
И вот спустя год, компания NVIDIA показывает нам новую видеокарту. Вопреки ожиданиям, называется новинка не GTX 780, и не относится к какой либо линейке вообще. Именуется новинка очень просто — NVIDIA GTX TITAN. Вероятно, название должно вызывать у покупателей ассоциации с титанической мощью. Вполне возможно, что так оно и будет. Ответ на это мы узнаем, проведя тестирование. А для начала я предлагаю вспомнить, с чего все начиналось и что такое Kepler.
Архитектура Kepler
На базе архитектуры Kepler построен GPU NVIDIA GK104, который является сердцем видеокарты NVIDIA GTX 680.
Kepler является развитием архитектуры Fermi, на которой работали видеокарты GTХ 580 и младше. Главное отличие на тот момент заключалось в уменьшении техпроцесса с 40 до 28 нм. Конечно же, на этом изменения не закончились. На схеме мы видим четыре кластера обработки графики (Graphics Processing Clusters), в каждом из которых «живёт» по два SMX (Next Generation Streaming Multiprocessors), они же потоковые процессоры. В общей сложности у нас получается восемь SMX. Каждый SMX несёт в себе 192 CUDA-ядра. Таким образом, общее количество ядер достигало отметки в 1536 единиц. По сравнению с предыдущим поколением, это дало трёхкратное увеличение мощности.
Как я и говорил чуть выше, GTX 680 принесла с собой не только новый GPU, но и новые технологии. Среди них был PCI-E, выросший до версии 3.0. Это позволило увеличить полосу пропускания до 8 GT/s (Гигатранзакций в секунду). На тот момент это не принесло существенного увеличения производительности, и, устанавливая видеокарту в материнскую плату с разъёмом PCI-E 2.0, пользователь практически не терял производительности — а если и терял, то это были считанные проценты, которые ни на что не влияют, кроме количества «попугаев» в бенчмарках. Однако то, что тогда было практически бесполезным, теперь придётся очень кстати. Если новинка действительно заметно мощнее своего предшественника, то увеличенная пропускная способность интерфейса PCI-E очень даже пригодится.
Также нам показали технологию NVIDIA GPU Boost, которая автоматически увеличивает тактовую частоту видеопроцессора, основываясь на показаниях датчиков. Если видеокарта не работала на пределе, не перешагивала через порог TDP, то она самостоятельно увеличивала тактовую частоту, что обеспечивало прирост производительности без вмешательства пользователя. Изначально технология вызвала множество критики и недовольств в свой адрес, особенно у профессиональных оверклокеров. Однако на сегодняшний день все уже привыкли к её существованию и лично мне она даже нравится. Видеокарта сама определяет безопасный потолок, до которого можно увеличивать частоту, не боясь зависаний и перезагрузок в самый интересный момент — это здорово.
Помимо этого, с выходом видеокарты NVIDIA GTX 680 появилась возможность подключать до четырёх мониторов к одной видеокарте. Раньше пришлось бы использовать две видеокарты. Эта возможность пригодится вам, если вы любите поиграть, не отрываясь от работы (на верхний дисплей можно вытащить необходимые вам окна), или просто любите активно поработать.
Также NVIDIA представила новую версию известного всем VSync и назвала его Adaptive VSync. Это нововведение в основном касается, конечно же, геймеров. NVIDIA усовершенствовала алгоритм работы технологии и сделала её более дружелюбной. Отныне, если ваша видеокарта не может выдать 60 кадров (стандартная вертикальная развёртка мониторов), то она не переключается автоматически в режим 30 кадров, а просто деактивирует технологию до тех пор, пока видеокарта снова не выдаст более 60 кадров в секунду. Таким образом нас избавили от лагов при частом переключении режимов.
Завершим нашу историческую справку, вспомнив про новый алгоритм сглаживания — Temporal Aliasing. Суть этого алгоритма заключается в том, что видеокарта использует содержимое предыдущего кадра для улучшения качества следующего при минимальной затрате ресурсов.
Итак, GPU Kepler GK104 несет в себе 1536 ядер, которые работают на тактовой частоте 1006 МГц. В режиме GPU Boost видеокарта сама автоматически увеличивает тактовую частоту вплоть до 1100 МГц. Видеопамять функционирует на 1502 (6008) МГц. Объем видеопамяти 2048 Мбайт. Шина памяти 256 бит. Количество блоков растеризации (ROPs) — 32 штуки. Количество транзисторов — 3500 млн, а площадь кристалла — 294 мм.
Это были базовые характеристики видеокарты NVIDIA GTX 680, изображенной на фотографиях выше. Я решил вспомнить их, так как новинка является продолжателем рода и хочется провести корректное сравнение, не упустив даже мелочей. На этом мы переходим к знакомству с NVIDIA GTX TITAN.
NVIDIA GTX TITAN — что нового?
Итак, мы с вами кратко вспомнили, что же нам принёс первый видеопроцессор, построенный на микроархитектуре Kepler. Теперь пришло время познакомиться с новинкой — NVIDIA GTX TITAN. Эта видеокарта построена на другом видеопроцессоре — GK110. Она не относится к шестисотой линейки видеокарт NVIDIA, но не относится и к видеокартам будущей семисотой линейки, а «гуляет сама по себе». Давайте же начнём с технических характеристик и особенностей видеопроцессора, а потом перейдём к изучению самой карты и особенностей её строения.
Сразу видно, что новый GPU стал «жирнее». Было четыре кластера обработки графики GPC (Graphics Processing Clusters) — стало пять. Количество потоковых процессоров (SMX, они же Next Generation Streaming Multiprocessors) в каждом кластере увеличилось с двух до трёх. Таким образом, теперь у нас пятнадцать потоковых процессоров, но нужно отметить, что один из них неактивен, а потому по факту их остаётся четырнадцать. Каждый потоковый процессор, как и раньше (в GK104), несёт в себе 192 CUDA-ядра, текстурные блоки и движок PolyMorph версии 2.0. Итого общее количество ядер составляет 2688 штук — впечатляет! Количество блоков растеризации (ROPs) увеличилось до 48 штук. Объем текстурных блоков также увеличился со 128 до 224 штук. Это серьёзное заявление на победу, даже если не учитывать, что это ещё далеко не все улучшения относительно GTX 680.
На данном слайде компания NVIDIA явно хочет показать своё превосходство в вычислительной мощности над процессорами компании Intel. Причем, обратите внимание, NVIDIA сравнивает свой видеопроцессор с фактически самым старшим процессором компании Intel на сегодняшний день. Да, ещё есть Intel Core i7 3970 Xtreme Edition, но разница между ними ровно двести мегагерц.
Компания NVIDIA доработала свою технологию GPU Boost, и теперь та получила вторую редакцию.
Как уже говорилось ранее, задача GPU Boost — это самостоятельное управление тактовой частотой видеопроцессора и подаваемым на него напряжением без какого-либо вмешательства со стороны пользователя. В первой редакции GPU Boost ориентировался на потребляемую энергию, и, в зависимости от «аппетита» карты в текущий момент, принимал решение повысить или понизить тактовую частоту видеопроцессора. Вторая редакция принесла больше возможностей. Теперь система отслеживает не только потребляемую энергию, но и напряжение с температурой.
Разумеется, для того, чтобы система понимала, «горяч» ли сейчас GPU и нужно ли снижать тактовую частоту, или же можно ещё подбросить дровишек, должна быть какая-то точка отсчёта. Компьютер пока ещё не умеет интуитивно определять, когда «хватит». Точкой отсчёта является величина в 80 градусов Цельсия. Параллельно система оценивает подаваемое на GPU напряжение. Да, эта видеокарта умеет регулировать напряжение на видеопроцессоре, в отличие от GTX 680, где все происходило несколько иначе. Это будет способствовать тому, что видеокарта будет точнее определять порог, после которого следует остановиться, а не бояться заранее. Более того, это, в свою очередь, позволяет надеяться, что при замене системы охлаждения на более производительную карта будет сама разгоняться до ещё больших частот. Все это только на руку среднестатистическому пользователю, который не хочет проводить несколько вечеров за разгоном видеокарты, т.е. это ещё один дружественный шаг в сторону покупателя.
Помимо всех перечисленных ранее достоинств, мы не упомянули ещё как минимум одно — шину памяти. Теперь шина памяти составляет 384 бита (вместо 256 у GTX 680). Объем памяти также заметно увеличился — с двух до шести гигабайт. Тип памяти GDDR5. На самом деле, конкретно для игр столько памяти не требуется даже в сверхвысоких разрешениях. Но столь мощной видеокарте трёх гигабайт было бы просто мало, как минимум — морально.
Благодаря присутствию MIO разъёмов вы можете объединить три видеокарты NVIDIA GTX TITAN в 3-way SLI. Такая мощность для игр вряд ли потребуется. А если и потребуется, то видеокарты уже устареют морально и их все равно придется поменять. Однако, если вы планируете не только играть на компьютере, но и заниматься вычислениями, в которых (по заявлению производителя) новинка очень хороша, то вот тут-то вся мощность может и пригодиться. К сожалению, проверить, действительно ли так хороша новая видеокарта в вычислениях, нам не удалось, но при этом у нас нет каких-либо причин не верить NVIDIA.
Хочется сразу отметить, что если вы решитесь объединять три видеокарты, то вам потребуется ну очень мощный блок питания, ведь остальная система при таком раскладе тоже не будет слабой. Потребление новинки может составлять 250 Ватт и выше под нагрузкой при разгоне, то есть три таких видеокарты легко могут «съесть» почти киловатт.
По заявлению компания NVIDIA, три видеокарты, объединённые в 3-way SLI, могут обеспечить в игре Crysis 3 целых 48 кадров в секунду на очень высоких настройках в разрешении 5760 х 1080 при двукратном сглаживании MSAA.
На данном графике видно, что три видеокарты конкурентов — HD 7970 — объединённые в режим CrossFireX, ощутимо громче под нагрузкой. По заявлению NVIDIA, три видеокарты GTX TITAN производят около 48 дБ шума, в то время как три видеокарты конкурентов шумят на все 61 дБ. Если это так, то разница очень велика. Поверьте на слово, 61 дБ — это очень много. Долго сидеть рядом с таким источником шума не получится — заболит голова.
На представленном выше графике нет ни одной игры, в которой связка из трёх новинок проиграла бы двум GTX 690. Где-то коэффициент производительности новинок составил 1.1 относительно двух GTX 690, а где-то и все 2.0. На данный момент дело ещё и в драйверах, видеокарта только вышла, поэтому в ближайшее время производительность должна быть увеличена.
И в заключение хочется рассказать о ещё одной фиче «титана».
Современные мониторы ограничивают частоту развёртки в 60 герц, и, как следствие, при активации Vsync производительность проседает до 60 кадров в секунду, даже если видеокарта может показать добрую сотню. Новая утилита, которая будет поставляться вместе с видеокартами, сможет помочь вам увеличить частоту вертикальной развёртки с 60 до 80 герц, тем самым подняв количество кадров в секунду. Раньше многие шутили про разгон мониторов, но будущее, как оказалось, не за горами, и шутки стали реальностью. Однако компания NVIDIA утверждает, что разогнаться смогут далеко не все мониторы, так что вам придётся поэкспериментировать.
На этом мы заканчиваем знакомство с новым GPU и технологическими фишками видеокарты NVIDIA GTX TITAN, и переходим к изучению самой карты.
NVIDIA GTX TITAN
Внешне видеокарта сразу напомнила мне GTX 690. Стиль в оформлении явно выдержан тот же. Корпус видеокарты выполнен целиком из металла. Он очень крепкий и прочно сбитый. Нет ощущения, что если карту случайно уронить, то она разлетится на несколько частей. Стоит отдать должное производителю — к исполнению видеокарты не придраться даже при желании.
Очень приятно держать в руках действительно качественный продукт и работать с ним. В наше время это редкость. Пусть это и не определяющая характеристика для видеокарты, и большинство пользователей скажут, что главное — производительность и малый шум от СО, я все же считаю, что дорогой продукт должен быть не только производительным, но и стильным, даже видеокарта. У компании NVIDIA это получилось, и не путем наклеивания стразиков и использования всей цветовой палитры в оформлении.
Сверху у видеокарты находится привычная уже надпись GEFORCE GTX, которая, конечно же, подсвечивается. Правее расположены два разъёма дополнительного питания — один шестиконтактный и один восьмиконтактный. Это логично, так как видеокарта потребляет теперь 250 Ватт вместо 190 Ватт. Как и говорилось ранее, в левой части живут два разъёма MIO.
В центральной части металлической конструкции расположилось пластиковое окошко. Зачем производитель его там установил — мне в данном случае не очень ясно, так как через некоторое время там все будет в пыли, и приятный вид быть приятным перестанет. Ну уж как есть, дизайнерский ход интересный. В правой части расположился вентилятор, ещё чуть правее виднеется маленький вытравленный логотип NVIDIA. В левой части карты выштампована надпись TITAN.
Набор видео разъёмов аналогичен тому, который использовался в видеокарте GTX 680 — имеется два DVI и по одному HDMI и DisplayPort. Этого набора достаточно, чтобы проблем с подключением не возникло.
Удалив верхнюю часть системы охлаждения, мы доберёмся до радиатора и испарительной камерой. Радиатор внушительных размеров. Крепится все это добро на металлическую пластину, которая закрывает всю печатную плату и помогает отводить тепло от расположенных на последней элементов.
А вот и сама печатная плата. Внешне она не сильно отличается от той, которая использовалась для производства GTX 680. Хотя, безусловно, расположение некоторых элементов изменилось, особенно это заметно в правой части карты.
Вокруг GPU расположились двенадцать микросхем видеопамяти стандарта GDDR5 производства SAMSUNG. С обратной стороны платы присутствуют ещё двенадцать микросхем, таким образом, на плате распаяно двадцать четыре микросхемы видеопамяти. Плотность каждой микросхемы 256 Мбайт, точнее, два гигабита. Общее количество видеопамяти составляет шесть гигабайт.
Теплораспределительная крышка на GPU отсутствует. Маркировка GPU NVIDIA ZS TAIWAN 1231AB N6H132 06W GK110-400-A1. Кристалл очень крупный, но это и не удивительно, если вспомнить про семь миллиардов транзисторов и прочие характеристики.
Подсистема питания стала заметно мощнее, чем у GTX 680. Теперь подсистема питания видеопроцессора шестифазная, и две фазы отведены на подсистему питания видеопамяти.
На этом мы завершаем изучение референсного варианта и переходим к видеокарте производства ZOTAC.
ZOTAC GTX TITAN
Видеокарта ZOTAC GTX TITAN, несмотря на свои внушительные размеры, поставляется в весьма скромной коробке. В отличие от большинства брендов, ZOTAC не увешивает свои изделия кучей логотипов, что делает им честь. На упаковку приятно смотреть.
После того, как вы извлечёте содержимое внешней части упаковки, у вас останется такой вот симпатичный бокс, в котором аккуратно лежит видеокарта.
Комплектация у карты весьма богатая. В коробке вы найдете:
- Два переходника питания с молексов на 6pin;
- Переходник DVI — D-SUB;
- Диск с программным обеспечением;
- Всевозможные инструкции по пользованию картой;
- Три игры из серии Assassins Creed;
- Фирменную наклейку.
Внешне видеокарта ничем от референса не отличается, но оно и предсказуемо: нет смысла изобретать велосипед. NVIDIA создала отличный продукт, который не нуждается в переработке. Набор видеоразъемов, остался, конечно же, без изменений.
На обратной стороне чего-то интересного, кроме двенадцати микросхем видеопамяти, нет. Память производства SAMSUNG, как и у карты от самой NVIDIA.
На то, что видеокарта продаётся под брендом ZOTAC, указывают только две маленьких наклеечки на верхней грани.
Вся система охлаждения контактирует с элементами платы через терморезинки. Исключением является сам видеопроцессор. Там прямой контакт GPU с радиатором, качество которого укрепляется термопастой.
На печатной плате, разумеется, тоже никаких изменений нет.
На этом мы переходим к изучению таблицы технических характеристик.
Таблица технических характеристик
NVIDIA GTX TITAN | NVIDIA GTX 690 | NVIDIA GTX 680 | AMD Radeon HD 7970 GHz | |
Ядро | GK110 | 2x GK104 | GK104 | Tahiti |
Количество транзисторов, млрд. шт | 7 | 2x 3.5 | 3.5 | 4.3 |
Техпроцесс, нм | 28 | 28 | 28 | 28 |
Количество потоковых процессоров | 2688 | 2x 1536 | 1536 | 2048 |
Количество блоков (ROPs) | 48 | 2x 32 | 32 | 32 |
Частота ядра, МГц | 836 | 950 | 1006 | 1050 |
Шина памяти, бит | 384 | 2x 256 | 256 | 384 |
Тип памяти | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
Объем памяти, Мбайт | 6144 | 2x 2048 | 2048 | 3072 |
Частота памяти, МГц | 6000 | 6000 | 6000 | 6000 |
Поддерживаемая версия DirectX | 11.1 | 11.1 | 11.1 | 11.1 |
Стоимость, руб | 34990 | 29000 | 17000 | 12000 |
Да, характеристики впечатляют. При таких параметрах новинка, скорее всего, не даст ни одного шанса GTX 680 и AMD Radeon HD 7970 GHz Edition. Давайте взглянем на скриншот программ GPU-Z и MSI Afterburner, который обновился специально для новинки.
Версия программы GPU-Z 0.6.7 ещё не совсем правильно распознает видеокарту, а потому часть параметров не отображается. Но в целом утилита согласна с теми данными, что нам предоставила компания NVIDIA. В нашем распоряжении 2688 CUDA-ядер, которые функционируют на частоте 836 МГц; авторазгон увеличивает это значение до 876 и больше. Количество блоков растеризации (ROPs) 48 штук. Объем видеопамяти 6144 Мбайт, тактовая частота памяти 6000 МГц, шина памяти 384 бита. Как я говорил раньше, это очень серьёзные характеристики.
По умолчанию вентилятор крутится на 30% от максимальной мощности. Это примерно 1150 оборотов в минуту. На такой скорости его совершенно не слышно, и это очень хорошо. Забегая чуть вперёд, скажу, что даже при серьёзной нагрузке видеокарта не начинала шуметь как взлетающий самолет.
При этом ценник на видеокарту не оставляет равнодушным — 35 тысяч рублей. И это только официальная цена, в рознице она может быть ещё на несколько тысяч выше. Стоимость в 1200 долларов внушает определенные надежды. За такие деньги видеокарта должна показать действительно высокий результат, иначе её покупка не будет иметь смысла.
Разгон и температуры
Как такую видеокарту не проверить на разгон? Ведь если учесть её номинальную мощность, даже 100 МГц разгона по видеопроцессору могут принести немало пользы.
Итак, скриншот с параметрами я показывал вам чуть выше. Номинальная тактовая частота — 836 МГц по видеопроцессору и 6000 МГц по видеопамяти.
В программе MSI Afterburner было разблокировано управление напряжением. Power Limit был выдвинут до 106%. После разгона максимальная частота функционирования GPU составила 1000 МГц. Видеопамять стабильно смогла работать на 1800 (7200) МГц. Это весьма неплохой показатель, особенно если учесть, что технология GPU Boost в процессе работы видеокарты сама поднимала тактовую частоту в среднем до 1050 — 1100 МГц, а кое-где достигала и отметки в 1200 МГц. Вот это уже отличный показатель. Технология GPU Boost 2.0 действительно работает, и работает очень хорошо.
Температура — очень интересный момент. Без нагрузки видеопроцессор нагревался до 32-34 градусов. Под нагрузкой в номинале температура подскакивала до 82 градусов. При этом система охлаждения надоедать грохотом не начинала. Я бы сказал, что едва ли она становилась громче. Это очень хорошо и показывает, что над картой действительно поработали и постарались продумать большинство моментов. После разгона температура в нагрузке подскочила до 84 градусов, а система охлаждения шуметь больше не стала.
Из-за сильно ужатых сроков на тестирование полноценно погонять видеокарту в разгоне не удалось, а потому мы провели несколько тестов в самых популярных приложениях. Результаты с разгоном будут на отдельной картинке, поэтому не удивляйтесь, когда не найдёте результатов разгона среди основных.
NVIDIA GTX TITAN SLI
Да, нам удалось протестировать видеокарты в режиме SLI. Хочу сказать об этом несколько слов.
Видеокарты очень хорошо показали себя в SLI, несмотря даже на то, что карты очень свежие и драйверы только-только появились. Особых проблем с производительностью замечено не было. Кое-где масштабирование могло бы быть лучше, но это временно — драйверы непременно ещё «подтянут», а значит, хорошее станет ещё лучше.
Объединённые в тандем видеокарты во время тестирования не шумели, чем приятно удивили. Мне стало любопытно, какую температуру они покажут под нагрузкой, и я загрузил их программой FurMark. Итак, верхняя (первая) карта не изменила показаний и прогрелась до 82 градусов, а вот вторая прогрелась до 87 градусов. Но это абсолютно нормальная ситуация. Скажу больше: обычно разница куда более заметная и частенько нижняя видеокарта даже перегревается. Здесь такого не произошло, что очень порадовало.
Конкуренты
В конкуренты новинке я могу определить только видеокарту GTX 690. NVIDIA GTX TITAN ощутимо мощнее GTX 680 и AMD Radeon HD 7970 GHz Edition. На сегодняшний день с новинкой может конкурировать только «двухголовый монстр» GTX 690.
Тестовый стенд
- Процессор — Intel Core i7 3770K. Тактовая частота 3,4 ГГц, кэш 6 Мбайт L3
- ASUS Maximus V Formula Thunder FX (LGA 1155)
- Система охлаждения — Thermaltake Frio
- Термоинтерфейс — Arctic Silver 5
- Оперативная память — Corsair XMS3 1600 МГц, 9-9-9-24, 2x4 Гбайт (Dual channel)
- Жесткий диск — Intel SSD 320 Series, 160 Гбайт
- Блок питания — Seasonic Platinum 1000 W
- Операционная система — Windows 7, x64
- Видеодрайверы — 314.09
Результаты тестирования NVIDIA GTX TITAN
Ввиду исключительной мощности новинки, из тестирования было удалено разрешение 1920 х 1080 и было оставлено только 2560 х 1440. Соперниками выступили GTX 680 и Radeon HD 7970. Все настройки качества картинки были выкручены на максимум, полноэкранное сглаживание 4х, анизотропная фильтрация 16х.
Как вы заметили, наш тестовый пакет немного изменился. В новую версию вошли Crysis 3, FarCry 3 и новый 3DMark.
Новинка действительно показывает впечатляющие результаты. Отрыв от GTX 680 существенный. В том же Crysis 3, где GTX 680 показывает результаты, которые нельзя назвать играбельными, GTX TITAN выдает 27 кадров, что заметно выше.
Масштабируемость SLI тоже на высоте, хотя в паре мест и были просадки. Но на данный момент это простительно, так как видеокарта тестировалась на самой первой версии драйверов. С уверенностью полагаю, что в ближайшее время производительность как SLI конфигурации, так и одиночной видеокарты, будет существенно увеличена в новых версиях драйверов.
Давайте посмотрим на несколько результатов новинки в разгоне.
Как видно, разгон действительно прибавляет новинке немало сил. Те же 35 кадров в Crysis 3 в разгоне смотрятся куда интересней, чем 27 в стоке.
Заключение
Итак, мы познакомились с новым детищем компании NVIDIA — GTX TITAN. Видеокарта очень порадовала. Производительность ощутимо выше, чем у бывшего однопроцессорного флагмана GTX 680, причем выше настолько, что предшественник не может идти ни в какое сравнение с новинкой. Хорошее качество сборки, тихая и эффективная система охлаждения — все это также про GTX TITAN.
Правда, за все это великолепие производитель просит 35 тысяч рублей. Это действительно много, это в два раза больше, чем просят за GTX 680. С другой стороны, и производительность почти в два раза больше. К тому же это будет одна видеокарта, а не две, которые, как известно, не всегда способны полноценно промасштабироваться в игре, из-за чего производительность может уменьшится. Также две видеокарты больше греются, шумят и т.д. Здесь вы всего этого удачно избежите. Так что если вы хотели собирать SLI из GTX 680, то теперь в этом нет необходимости.