GeForce 8800GT и Radeon HD 3850: 256 бит в массы! Часть первая
С обновлением версии API DirectX компании NVIDIA и AMD представили соответствующие решения класса high-end, а чуть позже и более доступные продукты, рассчитанные на массового потребителя. И если топовые карты демонстрировали производительность на порядок выше прошлого поколения ускорителей, то адаптеры среднего и начального уровней оставляли желать лучшего, причём стоимость их была выше моделей без поддержки DX10. Некоторые косметические изменения в спецификациях высокоуровневых адаптеров ситуацию должным образом так и не исправили – видеокарты оставались либо по-прежнему дорогими, либо с небольшим жизненным циклом, что оставляло нише в 200-300 долларов пустовать и далее.
И вот почти через год после начала экспансии совместимых с DirectX 10 видеоускорителей на суд общественности были представлены решения, которые действительно являются адаптерами среднего уровня и основаны, как парадоксально это ни звучало, на чипах следующего поколения. Также этот момент значим тем, что оба конкурирующих производителя выпустили разработки практически в одно и то же время – явление крайне редкое, особенно со стороны AMD/ATI, так как она уже давно выступает в роли догоняющей.
Сегодня мы рассмотрим современные варианты middle-end от законодателей графического рынка – GeForce 8800GT и Radeon HD 3850, а также проведём сравнительное тестирование, результаты которого будут достаточно интересными. И начнём, пожалуй, с GeForce 8800GT, так как компания NVIDIA раньше своего конкурента представила нативное решение среднего класса.
GeForce 8800GT (G92)
Продукция NVIDIA на базе DX10-совместимых ядер G8x оказалась несколько несбалансированной и вызывала в некоторых случаях сомнения в необходимости дальнейшего апгрейда. И если high-end-видеокарты серии GeForce 8800 действительно показывали феноменальную производительность, то адаптеры уровня GeForce 8600/8500/8400 ничего не давали, кроме поддержки DirectX 10. В итоге сложилась ситуация, когда для более-менее комфортной игры приходилось выбирать либо производительные карты прошлого поколения, либо дорогие, стоимостью более $300, GeForce 8800GTS/GTX/Ultra. Создать мощное решение среднего уровня с приемлемой ценой без значительного сокращения функциональных блоков (вспомним GeForce 8600/8500/8400) при имеющемся на то время техпроцессе было крайне сложно. Да и маркетологам такое положение дел только на руку – большая прибыль от high-end, которая ранее никогда не наблюдалась, плюс распродажа складских запасов G7х.
Через год после представления графического ядра G80, казалось бы, пора уже выпускать GPU следующего поколения, а значит, обновлённого флагмана компании. Но NVIDIA сперва решила выпустить продукт именно среднего класса, которого не хватало с самого начала, а уже со временем вывести на рынок высокоуровневые акселераторы на базе современных чипов. Итак, что же нового принесло обновление архитектуры видеопроцессоров калифорнийской компании, на базе одного из которых был выпущен GeForce 8800GT?
Видеокарта | GeForce 8800GT 512MB | GeForce 8800GT 256MB | GeForce 8800GTX | GeForce 8800GTS |
Ядро | G92 | G92 | G80 | G80 |
Число транзисторов, млн | 754 | 754 | 681 | 681 |
Техпроцесс, нм | 65 | 65 | 90 | 90 |
Число процессоров | 112 | 112 | 128 | 96 |
Число TMU/ROP | 56/16 | 56/16 | 32/24 | 24/20 |
Частота ядра/процессоров, МГц | 600/1500 | 600/1500 | 575/1350 | 500/1200 |
Частота памяти, МГц | 1800 | 1400 | 1800 | 1600 |
Шина памяти, бит | 256 | 256 | 384 | 320 |
Объём памяти, Мбайт | 512 | 256 | 768 | 640 |
Пропускная способность памяти, Гб/с | 57,6 | 44,8 | 86,4 | 64 |
Интерфейс | PCI Express 2.0 | PCI Express 2.0 | PCI Express | PCI Express |
Поддерживаемая версия DirectX | 10 | 10 | 10 | 10 |
Энергопотребление | 110 Вт | 110 Вт | 177 Вт | 147 Вт |
Во-первых, графический процессор G92 производится по 65-нанометровому технологическому процессу (сравните с 90-нанометровым для G80), что является большим шагом вперёд для компании NVIDIA и позволяет без проблем снизить уровень энергопотребления, увеличив при этом рабочие частоты и… количество функциональных блоков. Да-да, именно так, фактически никакого существенного урезания по сравнению с недо-middle-end'ом в лице G84, который был дробной частью G80, в новом ядре не наблюдается. Судите сами: количество транзисторов в новинке составляет ни много ни мало 754 млн, что намного больше, чем в высокоуровневом чипе прошлого поколения, при этом благодаря более тонкому техпроцессу площадь ядра стала меньше. Основными потребителями дополнительных транзисторов стали чип NVIO, отвечающий за RAMDAC, который в G80 представлял собой отдельную микросхему, видеопроцессор PureVideo HD и некоторые архитектурные изменения ядра (усложнённые блоки TMU, возможно, увеличенные кэши и так далее).
Также GeForce 8800GT оказался первым графическим акселератором, который поддерживает интерфейс PCI Express 2.0, увеличивающий пропускную способность в два раза по сравнению с версией 1.х (с 2,5 Гбит/с до 5 Гбит/с на канал), что в итоге позволяет передавать по графическому интерфейсу данные со скоростью 8 Гб/с в каждом направлении. Полная совместимость обеих версий PCI Express позволяет использовать старые видеокарты в новых платах и наоборот. В дополнение к повышенной пропускной способности увеличена также допустимая мощность потребления устройства.
Самым значимым нововведением в графическом процессоре нового поколения, рассчитанного на карты среднего уровня, является ширина шины памяти – теперь она 256-битная (!), и, по имеющимся данным, обновлённые старшие версии GeForce 8800 будут иметь такой же интерфейс. Забегая вперёд, можно смело заявить, что наш середнячок, обладая такой «узкой» шиной, способен порой дать фору GeForce 8800GTX, не говоря уже о 320-мегабайтной версии GeForce 8800GTS. Чипом поддерживается память стандарта GDDR3, а устанавливаемый объём равен либо 512 Мбайт с рабочей частотой 1800 МГц (физически 900 МГц), либо 256 Мбайт, при этом частота памяти снижена до 1400 МГц, что в достаточной степени скажется на производительности и, конечно же, стоимости – всего 199 долларов! Рекомендованная же цена на адаптер с объёмом памяти 512 Мбайт – в районе $249.
Теперь относительно архитектурных изменений ядра G92 по сравнению с графическими процессорами прошлого поколения. Графическое ядро G92 представляет собой некий гибрид G80 и G84/G86, в котором объединены структурная схема от высокоуровневого чипа и архитектура текстурных модулей с видеопроцессором PureVideo HD от GPU для массового рынка. Сама структура и принципы работы ядра G80 уже рассматривались на страницах нашего сайта («NVIDIA GeForce 8800: революция свершилась! Часть первая: архитектура G80» и мы лишь приведём существенные изменения, имеющие место в новом чипе.
Как известно, G80 состоит из восьми шейдерных блоков, каждый из которых содержит по 16 потоковых процессоров (скалярные ALU), четыре модуля адресации текстур (TA) и восемь – фильтрации текстур (TF), что позволяло говорить о 128 потоковых процессорах и 32 TMU, при этом количество широких блоков растеризации равнялось шести (в общей сложности 24 ROP).
В G92 доступны семь шейдерных блоков, работающих на частоте 1500 МГц и состоящих из всё тех же 16 ALU, а вот количество TA, как и в G84, увеличено вдвое и равно восьми модулям на каждый блок. Частота самого ядра составляет 600 МГц, что фактически приближается к рабочей частоте GeForce 8800Ultra. В итоге GeForce 8800GT имеет 112 универсальных процессоров и 56 TMU, правда, количество широких ROP, состоящих из четырёх модулей, было уменьшено до четырёх.
Возможно, это связано с экономическими, а возможно, и с маркетинговыми соображениями, чтобы не было конкуренции между различными модельными рядами. Учитывая достаточно большое количество транзисторов, можно предположить, что на самом деле функциональных блоков всё же больше, чем доступно, и со временем мы сможем познакомиться уже с полноценными G92, например, в старших моделях GeForce 8800.
Как и в предыдущем поколении графических процессоров NVIDIA, каждый шейдерный блок обладает собственным кэшем первого уровня, что обеспечивает потоковую обработку информации. Данные, обработанные одним потоковым процессором и выгруженные в кэш, могут быть вычитаны с помощью диспетчера ветвлений GigaThread другим процессором и заново обработаны, без ожидания выгрузки в кадровый буфер.
Новейшим графическим процессором поддерживаются все существующие методы сглаживания: адаптивное сглаживание, мультисемплинг, суперсемплинг и CSAA (Coverage Sampled Antialiasing). Последний позволяет при затратах ресурсов подобных MSAA 4x получить качество картинки, не уступающее MSAA 16х. Был обновлён мультисемплинг полупрозрачных поверхностей (TRMS), благодаря чему улучшились качество, не уступающее суперсемплингу (TRSS), и производительность.
Естественно, кроме работы с графическими приложениями G92, как и предыдущие GPU, основанные на унифицированной архитектуре, может применяться для физических и математических расчётов и тем самым позволит снять нагрузку с центрального процессора.
Обновлённый видеопроцессор PureVideo HD, используемый в новом чипе, способен полностью разгрузить центральный процессор при декодировании видеоданных даже таких тяжёлых форматов, как H.264 и VC-1, а также MPEG-2, с разрешением до 1920x1080 и битрейтом 30-40 Мбит/с. Также благодаря аппаратному декодированию CABAC и CAVLC данных есть возможность воспроизводить видеоданные на носителях HD-DVD и Blu-ray на системах средней производительности.
Как было сказано в самом начале данного материала, чип NVIO, отвечающий за внешние интерфейсы – а это два 400 МГц RAMDAC, два Dual Link DVI (с поддержкой HDCP) и HDTV-Out, в отличие от G80 интегрирован в сам кристалл GPU. Интерфейс HDMI также не остался в стороне и может быть реализован либо на платах специального дизайна, либо посредством переходника DVI/HDMI.
Ну и в заключение – о потребляемой мощности карт на основе графического процессора G92. На данный момент GeForce 8800GT – единственный представитель на базе новейшего GPU, потребляемая мощность которого всего около 110 Вт (на 33% ниже, чем у GeForce 8800GTS 320MB), благодаря чему разработчик остановился на однослотовой схеме охлаждения видеокарты. Насколько эффективным оказался такой подход, мы узнаем из второй части данного материала.
Radeon HD 3870/3850 (RV670)
Оказавшись в роли догоняющего, компания AMD/ATI всячески пыталась вернуть утраченные позиции на графическом рынке, но все её попытки оказались тщетными. Постоянное откладывание DX10-совместимых решений перераспределило рынок в сторону NVIDIA. Когда же обновлённая серия Radeon увидела свет, производительность её оказалась ниже ожидаемой, что ещё больше усугубило положение канадско-американской компании.
Как и в случае с NVIDIA, в модельном ряду видеокарт AMD отсутствовали производительные решения среднего уровня, что было связано с высокой сложностью унифицированной архитектуры, и сделать мощный, но в то же самое время дешёвый графический процессор оказалось попросту невозможно. Снижение рабочих частот (Radeon HD 2900Pro) или уменьшение функциональных блоков, объёма памяти и ширины шины (Radeon HD 2900GT) относительно флагмана Radeon HD 2900XT к должному результату не привело, так как стоимость готовых решений оставалась высокой, да ещё и с ограниченным количеством видеокарт. Но как и главный конкурент, искавший пути снижения себестоимости своего детища, AMD продолжала работать над редизайном графического процессора R600 и с переходом на более тонкий техпроцесс смогла представить недорогое, но производительное решение действительно среднего уровня. И в отличие от NVIDIA, которая только собирается выпустить на базе обновлённого GPU ещё несколько моделей видеокарт, компания представила два решение на основе RV670, тем самым расширив ассортимент серии Radeon HD 3800.
С выпуском RV670 AMD отказалась от привычных цифро-буквенных индексов в пользу полностью цифровых. Так, на данный момент доступны две модели новой серии – это Radeon HD 3870 и Radeon HD 3850, где первая цифра указывает на поколение графических процессоров с унифицированной архитектурой (это третье поколение, второе было в семействе Radeon HD 2000, а первое – в чипе Xenos), вторая – семейство, а последние две обозначают производительность GPU. Приставок типа XT, Pro, GT больше не будет, их как раз и должны заменить последние две цифры. Например, модели хх70 являются XT-вариантом, а хх50 – Pro. Думаем, так намного проще пользователям определиться при выборе того или иного видеоакселератора, чем со старыми обозначениями.
Видеокарта | Radeon HD 3870 | Radeon HD 3850 | Radeon HD 2900XT |
Ядро | RV670 | RV670 | R600 |
Число транзисторов, млн | 666 | 666 | 700 |
Техпроцесс, нм | 55 | 55 | 80 |
Число процессоров | 320 | 320 | 320 |
Число TMU/ROP | 16/16 | 16/16 | 16/16 |
Частота ядра/процессоров, МГц | 775 | 670 | 740 |
Частота памяти, МГц | 2250 | 1660 | 1650 |
Шина памяти, бит | 256 | 256 | 512 |
Объём памяти, Мбайт | 512 | 256 | 512 |
Пропускная способность памяти, Гб/с | 76,8 | 57,6 | 105,6 |
Интерфейс | PCI Express 2.0 | PCI Express 2.0 | PCI Express |
Поддерживаемая версия DirectX | 10.1 | 10.1 | 10 |
Энергопотребление | 105 Вт | 95 Вт | 215 Вт |
Основным же новшеством RV670 является переход на 55-нанометровый техпроцесс, что с меньшим числом транзисторов (666 млн против 700 млн у R600, производимого по 80-нанометровому техпроцессу) позволило уменьшить площадь кристалла в два раза – до 192 мм2. Также были добавлены поддержка интерфейса PCI Express 2.0, новый режим ATI CrossFireX, позволяющий объединить вместе до четырёх видеоадаптеров, видеодекодер UVD+ (Unified Video Decoder), а также поддержка ещё не вышедшего API DirectX 10.1. Об эффективности последнего можно будет судить после появления в следующем году SP1 для операционной системы Windows Vista, а пока поддержку следующей версии DirectX можно считать скорее приятным бонусом, чем серьёзной необходимостью. В ближайших материалах мы подробно расскажем о значительных изменениях DirectX, которые нас ждут с выходом версии 10.1, а пока вернёмся к дальнейшему изучению архитектурных особенностей графического процессора RV670.
Горький опыт с первыми middle-end-решениями с унифицированной архитектурой повлиял и на компанию AMD, которая наконец-то внедрила поддержку 256-битной шины памяти в графическом процессоре среднего уровня. В отличие от R600 (о том, почему такое постоянное сравнение, чуть ниже), который имеет 512-битную шину памяти и внутреннюю кольцевую шину в 1024 бит, новый чип поддерживает внутреннюю шину разрядностью в 512 бит. Из поддерживаемых типов памяти заявлены GDDR3 и GDDR4, объём может составлять 512 Мбайт GDDR4 для Radeon HD 3870, при этом рабочая частота памяти составляет 2250 МГц, и 256 Мбайт GDDR3 с частотой 1660 МГц для Radeon HD 3850.
И самое главное – архитектура ядра RV670, которая является практически точной копией… R600, который мы уже детально рассматривали в одном из наших материалов («Свершилось! Архитектура Radeon HD 2000 – достойный ответ конкуренту». Здесь же мы постараемся кратко описать основные особенности унифицированной архитектуры RV670.
Ядро содержит 64 потоковых процессора, способных выполнять пять инструкций, при этом четыре из них – MUL/ADD (Multiply-Add), и ещё одну сложную трансцендентную инструкцию (SIN, COS, LOG и т. п.), поэтому и используется упоминание о 320 стрим-процессорах. Также в графическом процессоре имеются 16 TMU и 16 ROP, которые, как и потоковые процессоры, работают на одной и той же частоте: 775 МГц для Radeon HD 3870 и 670 МГц для Radeon HD 3850. По остальным параметрам и принципам работы RV670 полностью повторяет чип прошлого поколения, за исключением некоторых изменений, связанных с поддержкой DirectX 10.1. Даже программируемый модуль тесселяции остался на месте – и это несмотря на уменьшенное количество транзисторов.
Новый чип также обзавёлся технологией энергосбережения ATI PowerPlay, известной по мобильным решениям компании, позволяющей динамически управлять частотой и питанием GPU в зависимости от нагрузки, причём управление происходит на аппаратном уровне, а не посредством драйверов. Смысл данной технологии заключается в том, что во время работы 2D-приложения все параметры выставляются на самый низкий уровень, а с ростом нагрузки на графический процессор соответственно будут расти частота и напряжение питания чипа.
Методы сглаживания изображения в RV670 остались прежними, но в DX10.1 появились возможности, облегчающие устранение проблем при использовании мультисемплинга, заключающиеся в невозможности сглаживания текстур и вывода пиксельных шейдеров, так как MSAA работает только по краям полигонов. Также в новую версию API DirectX 10.1 была введена возможность использования специализированных фильтров антиалиасинга из пиксельных шейдеров. Единственный минус всех этих возможностей в том, что реальное применение новых технологий будет возможным после выхода соответствующих графических приложений, которые появятся явно не скоро.
Интегрированный универсальный видеодекодер (UVD+), как и видеопроцессор PureVideo HD от NVIDIA, обеспечивает аппаратное декодирование сигнала высокой чёткости форматов H.264 и VC-1, тем самым снимает нагрузку с центрального процессора.
Для передачи качественного видеоконтента RV670 поддерживает HDMI-интерфейс и технологию HDCP, а также ставшие уже стандартными внешние интерфейсы Dual Link DVI и HDTV-Out.
Уровень энергопотребления карт на базе нового графического процессора AMD составляет 105 Вт для Radeon HD 3870 и 95 Вт для Radeon HD 3850. Заметьте, что энергопотребление RV670 в два раза меньше, чем у R600, при сопоставимой производительности. Применяемая система охлаждения для Radeon HD 3850 представляет собой однослотовый кулер, для Radeon HD 3870 уже используется двухэтажная СО, горячий воздух от которой выводится наружу системного блока, что позволит поддерживать оптимальный температурный режим внутри корпуса. Рекомендованные цены весьма демократичны, как для карт с 256-битной шиной памяти: 179 долларов для младшей модели и 219 – для старшей.
Вывод
Обе компании, AMD и NVIDIA, сделали большой шаг вперёд, выпустив настоящие middle-end-решения с 256-битной шиной памяти. Использование более прогрессивных техпроцессов позволило производителям снизить энергопотребление и, следовательно, нагрев чипов, а также их стоимость, что немаловажно для видеокарт такого ценового диапазона. Конечно же, не может не радовать тот факт, что при своём позиционировании карты на базе новейших графических процессоров показывают сходную с флагманами производительность, возможно, мы вскоре увидим обновлённые версии высокоуровневых адаптеров. Добавление поддержки PCI Express 2.0, более качественных блоков по декодированию видеоконтента и даже DirectX 10.1 для GPU от AMD повышает функциональность современных видеоакселераторов. Но самым главным новшеством остаётся, пожалуй, именно поддержка 256-битной шины памяти, позволяющая использовать более качественные настройки графики, при весьма низкой цене – до 250 долларов, а учитывая производительность готовых решений, это просто подарок на фоне присутствующих на рынке графических адаптеров.
Читайте также «GeForce 8800GT и Radeon HD 3850: 256 бит в массы! Часть вторая».