Windows. Вирусы. Ноутбуки. Интернет. Office. Утилиты. Драйверы

Выход компании NVIDIA на рынок наборов логики для процессоров семейства Intel Core 2 вызвал у нас неоднозначные эмоции. Конечно, с точки зрения формальных характеристик, NVIDIA nForce 680i SLI равных нет. По своим возможностям этот чипсет, действительно, превосходит альтернативные решения от Intel и, уж тем более, AMD. Однако спецификации в наше время решают далеко не всё. Рассмотренные нами ранее серийные платы, основанные на NVIDIA nForce 680i SLI, единодушного восхищения, к сожалению, не вызывают. И продукты, построенные на референсном дизайне , и ASUS Striker Extreme , имеют множество мелких проблем, которые способны испортить впечатление об этих продуктах у придирчивых пользователей. Но особенно при этом расстраивает цена материнских плат, основанных на топовом наборе логики от NVIDIA. Именно из-за неё широкая популярность и всенародная любовь NVIDIA nForce 680i SLI явно не грозит. В результате, самым массовым и востребованным набором логики для настольных Core 2 систем на данный момент продолжает оставаться набор логики Intel P965.

Однако в ближайшее время эта ситуация может измениться. Компания NVIDIA начала поставки производителям плат нового набора логики nForce 650i SLI, удешевлённой версии не столь привлекательного NVIDIA nForce 680i SLI. Первые продукты, в основе которых лежит этот многообещающий чипсет, в магазинах уже появились. И что особенно приятно, их стоимость вполне сравнима с ценой материнских плат на интеловских чипсетах. Таким образом, принимая во внимание спецификации NVIDIA nForce 680i SLI, от новинок можно ожидать превосходного сочетания потребительских характеристик и цены. Именно поэтому наша лаборатория решила уделить внимание одной из первых появившихся на рынке материнских плат на базе NVIDIA nForce 650i SLI, ASUS P5N-E SLI.

Впрочем, перед тем как перейти к рассмотрению этого подающего большие надежды решения, пару слов необходимо сказать о самом чипсете NVIDIA nForce 650i SLI, ведь его позиционирование не в верхнем, а в среднем ценовом диапазоне, очевидно, привело к некоторому сокращению возможностей. Первые же выводы об этом можно сделать, глядя на блок-схему новинки.

Как видим, главное отличие NVIDIA nForce 650i SLI от своего старшего собрата заключается в уменьшении количества линий PCI Express, которое отражается в том числе и на схеме реализации технологии SLI. В то время как nForce 680i SLI имел в своём распоряжении в общей сложности 46 линий PCI Express, у nForce 650i SLI их всего 18. В результате, в то время как старшая модель чипсета предлагает реализацию технологии SLI по схеме PCI Express x16 + PCI Express x16, предоставляя к тому же и дополнительную шину PCI Express x8 для установки физического ускорителя, в nForce 650i SLI технология SLI использует более простую схему PCI Express x8 + PCI Express x8. Соответственно, в nForce 650i SLI речь не идёт и ни о каких-либо дополнительных шинах для видеокарт, исполняющих роль физического ускорителя.

Объясняется это тем, что хотя nForce 680i SLI и nForce 650i SLI строятся на базе одного и того же северного моста C55 SPP, их южные мосты не имеют между собой ничего общего. Функции этой микросхемы у nForce 650i SLI сильно урезаны, и не только лишением поддержки линий PCI Express.

Так, NVIDIA nForce 650i SLI располагает лишь одним гигабитным сетевым контроллером вместо двух у старшей модели набора логики, четырьмя Serial ATA-300 портами вместо шести и восемью портами USB 2.0 вместо десяти. Зато nForce 650i SLI предлагает два канала Parallel ATA-133, что для современных чипсетов большая редкость. Но странного в этом ничего нет, ведь южный мост в nForce 650i SLI – это ни что иное, как микросхема nForce 430 MCP, давно и хорошо знакомая нам по интегрированному набору логики nForce 6150. Чему-чему, а искусству унификации у NVIDIA можно поучиться.

К вышесказанному надо добавить, что часть возможностей у nForce 650i SLI отключена на уровне BIOS материнских плат. Так, несмотря на то, что этот набор системной логики использует тот же северный мост, что и nForce 680i SLI, более дешёвый чипсет лишён официальной поддержки технологии NVIDIA Linkboost и поддержки высокоскоростной памяти с EPP. Впрочем, для продвинутых пользователей, привыкших к ручному конфигурированию своих систем, эти отличия вряд ли могут считаться принципиальными.

Итак, сведём воедино всё вышесказанное.

Фактически, если отсутствие поддержки SLI по схеме PCI Express x16 + PCI Express x16 не является для вас принципиальным моментом, то, судя по характеристикам, набор логики NVIDIA nForce 650i SLI может стать вполне полноценной основой системы. И уж, несомненно, он может рассматриваться как настоящий конкурент для Intel P965.

Спецификация и комплект поставки

А вот и первая ласточка, основанная на NVIDIA nForce 650i SLI – материнская плата ASUS P5N-E SLI.

Главный вопрос состоит в том, сможет ли материнская плата ASUS P5N-E SLI, в основе которой лежит многообещающий чипсет NVIDIA nForce 650i SLI, рассматриваться в качестве полновесного соперника популярных решений на базе iP965? Ответ становится ясным уже из её спецификации.

ASUS P5N-E SLI
Процессоры LGA775 процессоры Celeron D, Pentium 4, Pentium D, Pentium 4 XE, Pentium XE, Core 2 Duo, Core 2 Quad и Core 2 Extreme
Чипсет NVIDIA nForce 650i SLI (C55 SPP + nForce 430 MCP)
Частоты FSB, МГц 133-750 (с шагом 1 МГц)
Функции для разгона Возможность изменения напряжения на процессоре, памяти и северном мосту
Независимое тактование шин PCI и PCI Express
Поддержка технологии EPP
Память 4 слота DDR2 DIMM для двухканальной DDR2-1067/800/667/533 SDRAM
Слоты PCI Express x16 2 (с поддержкой NVIDIA SLI в режиме 8x + 8x)
Слоты PCI Express x1 1
Слоты расширения PCI 2
Порты USB 2.0 8 (4 – на задней панели)
Порты IEEE1394 2 порта IEEE1394a (1 – на задней панели, через контроллер VIA VT6308P)
ATA-100/133 2 канала ATA-133 (через чипсет)
Serial ATA 4 канала Serial ATA-300 (через чипсет, с поддержкой RAID)
1 канал eSATA (на задней панели, через контроллер JMicron JMB360)
Поддержка ATA RAID RAID 0, 1, 0+1, 5 у чипсета
Интегрированный звук Шестиканальный HD кодек Realtek ALC883
Интегрированная сеть Gigabit Ethernet (через чипсет)
Дополнительные возможности Нет
BIOS Phoenix AwardBIOS v6.00PG
Форм-фактор ATX, 305x229 мм

Да, может. По основным формальным параметрам она нисколько не уступает основной массе материнских плат, построенных на iP965. При этом надо всё же понимать, что ASUS P5N-E SLI относится к разряду недорогих плат, а потому "тяжеловесы" вроде ASUS Commando принадлежат к более высокому классу. Более подробное знакомство с ASUS P5N-E SLI выявит множество моментов, в которых инженеры руководствовались в первую очередь стремлением сделать эту плату более доступной по стоимости. Таким образом, конкурентоспособность этого продукта мы будем рассматривать, исходя из её стоимости, которая составляет на сегодняшний день $120-140.

Возьмём, например, упаковку и комплект поставки. Экономия тут сразу же бросается в глаза. Рассматриваемая плата предлагается в ни чем не примечательной коробке "обычного" типоразмера без красивых картинок, прозрачных прорезей и ручек для переноски.

Внутри коробки тоже несколько пустовато. В наличии имеется собственно плата, руководство, компакт-диск с ПО и драйверами, заглушка для задней панели корпуса (I/O Shied), шлейфы для подключения дисковода и Parallel ATA устройств, два Serial ATA кабеля и соответствующий переходник питания. Этот джентльменский набор дополнен лишь тремя более ценными принадлежностями: заглушкой-брекетом с парой дополнительных USB портов, гибким шлейфом для соединения видеокарт в режиме SLI и набором фирменных разъёмчиков Q-Connector.

Впрочем, несмотря на скудный (по сравнению с более дорогими платами ASUS) комплект поставки, придраться к нему достаточно сложно. Всё необходимое в коробке, безусловно, есть.

Подробнее о возможностях

То же самое можно сказать и о функциональных возможностях самой платы. Хотя практически все её свойства базируются в своей реализации на соответствующих функциях набора логики, упрекнуть ASUS P5N-E SLI в нехватке чего-то важного вряд ли получится.

Плата поддерживает полный спектр LGA775 процессоров, включая двухъядерные и четырёхъядерные CPU семейства Core 2. Более того, несмотря на отсутствие официальных упоминаний о поддержке ASUS P5N-E SLI будущих процессоров с частотой шины 1333 МГц, сомневаться в работоспособности этой платы с такими CPU не приходится. Эта уверенность обуславливается разгонными результатами платы с одной стороны, и использованием северного моста C55 SPP (который в составе чипсета NVIDIA nForce 680i SLI официально поддерживает будущую шину) – с другой.

Иными словами, нами не видится никаких причин, которые могут вызвать проблемы в эксплуатации ASUS P5N-E SLI с будущими процессорами.

Что касается работы с памятью, то и тут ASUS P5N-E SLI мало чем отличается от той же ASUS Striker Extreme. Благодаря свойствам северного моста C55 SPP частота DDR2 SDRAM может быть задана как делителями относительно частоты FSB (набор делителей не так уж и богат и включает коэффициенты FSB:DRAM равные 1:2, 5:8, 3:4 и 1:1), так и псевдоасинхронно. При включении псевдоасинхронного режима BIOS Setup платы предлагает ввести любое значение частоты памяти от 400 до 2600 МГц, но при этом реальная частота будет подобрана среди близких значений, получаемых при использовании расширенного множества делителей, количество которых в асинхронном режиме значительно увеличено.

Надо заметить что, несмотря на обещанные NVIDIA ограничения в части поддержки технологии EPP чипсетом nForce 650i SLI, ASUS P5N-E SLI поддерживает её без каких либо проблем.

Отдельное внимание следует уделить имеющимся на плате двум слотам PCI Express x16. Эти слоты нужны исключительно для использования в качестве видеоподсистемы пары видеокарт, работающих в режиме SLI. При включении этого режима оба слота логически работают как PCI Express x8. Если же в системе установлена только одна видеокарта, то первый слот функционирует как полноценный PCI Express x16, а второй – отключается. Выбор между режимами работы слотов выполняется самым старым и примитивным способом – при помощи установки в одно из двух положений дочерней карты-переключателя.

Благодаря южному мосту nForce 430 материнская плата ASUS P5N-E SLI имеет восемь портов USB 2.0, четыре порта SATA-300 с поддержкой пропускной способности 3 Гбит в секунду, NCQ и RAID, два канала PATA-133 и гигабитный сетевой порт.

Эти возможности дополняются при помощи контроллера VIA VT6308P, обеспечивающего работу двух IEEE1394 портов, и чипа JMicron JMB360, добавляющего в число свойств платы поддержку дополнительного внешнего порта eSATA (SATA On-the-Go, как его называет ASUS).

Шестиканальный интегрированный звук на ASUS P5N-E SLI реализуется через кодек высокого разрешения Realtek ALC833. Хотя сам по себе этот кодек обладает поддержкой 8 каналов, на плате выведено только шесть из них. Кроме того, следует отметить, что этот кодек относится к числу недорогих и обладает не столь высоким качеством поддержки EAX 2.0, как, например, кодеки Analog Devices, используемые ASUS на более дорогих платах.

Дизайн и впечатления

Комплектация ASUS P5N-E SLI и её заявленные возможности особого впечатления на нас не произвели. Всё вполне типично для материнской платы среднего ценового диапазона. Но что касается дизайна, то здесь у рассматриваемого продукта обнаруживаются весьма примечательные и достаточно необычные особенности.

Так, первое что бросается в глаза при взгляде на плату, это гигантский алюминиевый радиатор, установленный на северном мосту чипсета.

Стремление разработчиков к снижению финальной стоимости платы не дало ни малейшего шанса на появление на ASUS P5N-E SLI более эффективной охлаждающей конструкции. А ведь медный активный кулер здесь явно бы не помешал. Чип C55 SPP чрезвычайно сильно нагревается во время работы. Установленный на плате алюминиевый радиатор раскаляется до таких температур, что при длительной эксплуатации платы возникает сильное беспокойство за здоровье северного моста. Так что мы бы рекомендовали первым делом сменить этот дешёвый радиатор на что-то более эффективное, особенно, если вы планируете разгон, или же ваша система не предусматривает сильную циркуляцию воздуха в районе северного моста.

На южном мосту платы и вовсе никакого радиатора нет. Впрочем, нагревается по сравнению с северным мостом он не столь уж пугающе. Тем не менее, на печатной плате около этой микросхемы предусмотрены крепёжные отверстия, позволяющие дополнительно позаботиться о судьбе и этой микросхемы.

Сомнительная экономия на радиаторах коснулась не только микросхем чипсета. Лишён какого бы то ни было охлаждения и конвертер питания процессора, который на ASUS P5N-E SLI выполнен по классической трёхканальной схеме. В данном случае эта схема не содержит ни цифровой обратной связи, ни SMT конденсаторов, что совершенно неудивительно, учитывая невысокую стоимость платы. В преобразователе напряжения использованы обычные электролитические конденсаторы производства United Chemi-Con, претензий к надёжности которых обычно не возникало.

Элементы конвертера питания процессора, включая конденсаторы, расположены на печатной плате далеко не самым удачным образом – непосредственно вокруг процессорного гнезда. В результате, они способны затруднить установку на ASUS P5N-E SLI систем охлаждения с массивным основанием, которым, кстати, может помешать и радиатор северного моста.

Ещё одна проблема может возникнуть при подключении к плате дополнительного 12-вольтового кабеля питания. Дело в том, что плата оборудована 4-контактным разъёмом, более современный 8-контактный штепсель в который влезает с большим трудом из-за неосмотрительно установленного рядом джампера.

Надо сказать, что дизайн ASUS P5N-E SLI не обделён и некоторыми другими недостатками, многие из которых можно увидеть на приведённой схеме.

Сильное расстройство вызывает местонахождение разъёма для подключения FDD, который прячется за последним слотом PCI. Также оставляет желать лучшего и размещение SATA портов, воспользоваться которыми при наличии в системе двух видеокарт может быть не очень просто.

Все проблемы с неудачным выбором места для размещения тех или иных разъёмов на плате могут объясняться уменьшенной (c целью экономии) площадью PCB, и это даёт инженерам ASUS некоторое оправдание. За что же прощать конструкторов совсем не хочется – так это за наличие на P5N-E SLI всего трёх разъёмов для подключения вентиляторов. Для платы такого уровня, несущей на себе сильно греющиеся элементы, этого, вне всяких сомнений, недостаточно.

Задняя панель платы выглядит несколько пустоватой. Здесь присутствуют PS/2 порты для подключения мыши и клавиатуры, четыре порта USB, порт IEEE1394, сетевой разъём RJ45 с диагностическими светодиодами, порт eSATA, три аналоговых аудио-разъёма, коаксиальный SPDIF выход и параллельный порт.

На PCB при этом имеется pin-коннекторы для подключения четырёх дополнительных портов USB, порта IEEE1394 и последовательного COM порта.

BIOS

Разгонные возможности материнской платы во многом определяются её BIOS. Учитывая, что в основе ASUS P5N-E SLI лежит тот же самый северный мост, который служит базисом ASUS Striker Extreme, мы ожидали, что BIOS Setup этой платы предложит нам похожие возможности для разгона процессоров и памяти. Однако не тут-то было. Инженеры ASUS существенно ограничили число настроек BIOS Setup своей недорогой платы, построенной на наборе логики NVIDIA nForce 650i SLI. Остаётся только надеяться, что на оверклокерском потенциале платы это скажется не столь сильно.

Все возможности BIOS Setup, посвящённые конфигурированию памяти и процессора и их разгону, находятся в меню Advanced. Основная часть интересующих оверклокеров параметров вынесена в раздел JumperFree Configuration.

Здесь можно выключить технологии EPP, а также попасть на отдельные страницы Setup, с функциями для управления напряжениями и частотами.

Подраздел System Clocks содержит единственную опцию для задания частоты шины PCI Express, которая изменяется в пределах от 100 до 131 МГц с шагом в 1 МГц.

В подразделе Voltage Control открывается доступ к управлению тремя величинами:

В подразделе FSB & Memory Config задаётся частота шины FSB и шины памяти.

Заметим, что установка частоты фронтальной шины происходит в несколько непривычном "учетверённом" формате. В пересчёте же на привычные значения, FSB может тактоваться в пределах частот от 133 до 750 МГц. Частота памяти выставляется либо связанно с FSB, используя делители FSB:DRAM равные 1:2, 5:8, 3:4 и 1:1, либо псевдоасинхронно. Имейте в виду, NVIDIA nForce 650i SLI не имеет полностью асинхронного отдельного тактового генератора для формирования частоты шины памяти. После установки желаемого значения в BIOS Setup плата подберёт наиболее подходящий делитель (их в распоряжении чипсета – более чем достаточно) и укажет фактическую частоту памяти. В большинстве случаев эта частота отличается от желаемой не более чем на 10-20 МГц в меньшую сторону. Диапазон же частот памяти, который даёт выбрать ASUS P5N-E SLI в псевдоасинхронном режиме лежит от 400 до 2600 МГц.

Раздел CPU Configuration открывает доступ к манипулированию коэффициентом умножения процессора (для процессоров, позволяющих смену множителя) и к управлению различными процессорными технологиями.

Все настройки памяти вынесены в подраздел Memory Timings Settings раздела Chipset.

Как видим, плата открывает доступ ко всем основным задержкам подсистемы памяти, в том числе позволяет управлять и параметром Command Rate.

Необходимо отметить, что практически все перечисленные напряжения, а также параметры процессора и памяти, могут быть выставлены в значение Auto, что несколько упрощает настройку BIOS Setup.

Помимо возможностей, нацеленных непосредственно на оверклокинг, BIOS Setup ASUS P5N-E SLI располагает и парой других любопытных возможностей. Во-первых, он позволяет сохранять профили настроек в энергонезависимой памяти и даже в файлах. Во-вторых, в нём встроена утилита EZ Flash 2, основной функцией которой выступает обновление прошивок, не выходя из BIOS. Эта утилита способна брать файлы с новыми версиями BIOS c Floppy, CD и жёстких дисков, размеченных под FAT, а также с USB Flash дисков.

Аппаратный мониторинг, реализованный на ASUS P5N-E SLI, позволяет отслеживать скорость вращения трёх вентиляторов и температуры процессора и платы.

В BIOS реализована и традиционная технология Q-Fan, позволяющая управлять скоростями вентиляторов в зависимости от температур узлов системы.

Разгон

Из описания BIOS Setup следует, что ASUS P5N-E SLI не столь богата настройками, как многие другие материнские платы для энтузиастов. В то же время все основные параметры эта плата изменять позволяет, и это даёт надежду на её применимость в качестве оверклокерской платформы.

Более того, последние рассмотренные нами платы для продвинутых пользователей имели чрезвычайно сложный BIOS Setup, за правильным подбором настроек в котором можно было бы провести немало времени. ASUS P5N-E SLI в этом ключе выглядит очень привлекательно: две частоты и три напряжения – весь инструментарий, который способен пригодиться при разгоне CPU. Другое дело, что результаты такого разгона могут оказаться не столь ошеломляющими. Собственно, проверить все эти умозрительные заключения при помощи тестов мы и взялись.

Для экспериментов мы собрали систему, основанную на рассматриваемой плате с установленным процессором Intel Core 2 Extreme X6800. Кроме этого, в тестовой платформе использовалось 2 Гбайта DDR2 оперативной памяти Corsair TWIN2X2048-8500C5D, видеокарта PowerColor X1900 XTX 512MB и жёсткий диск Western Digital Raptor WD1500AHFD. Благодаря тому, что набор логики NVIDIA nForce 650i SLI позволяет псевдоасинхронное тактование памяти, во время испытаний DDR2 SDRAM всегда работала на частоте, равной или чуть меньшей 800 МГц с таймингами 4-4-4-12-1T. Для охлаждения процессора использовался кулер Zalman CNPS9500 LED, а, кроме того, мы устанавливали на радиатор северного моста дополнительный 60 мм вентилятор. Стабильность работы указанной системы при разгоне проверялась при помощи хорошо зарекомендовавшей себя утилиты ORTHOS, основанной на коде Prime95.

Максимальная частота шины FSB, при которой плата сохраняет способность к стабильному функционированию, была найдена нами очень быстро. Также как и при испытаниях ASUS Striker Extreme, она составила 490 МГц.

При достижении этого результата нам пришлось лишь повысить напряжение на северном мосту набора логики до 1.563 В и на процессоре до 1.475 В. Казалось бы, всё просто? Не тут-то было. ASUS уже давно не выпускал материнских плат, на которых все оверклокерские функции работают сразу, без применения "системы сдержек и противовесов".

Во-первых, столь высокого результата при повышении частоты FSB нам удалось достичь только благодаря дополнительному вентилятору, который мы установили на радиатор северного моста. При удалении этого вентилятора плата неизменно зависала при прохождении POST даже при снижении частоты FSB до 450 МГц.

Во-вторых, как показали тесты, в столь высоких частотах FSB на ASUS P5N-E SLI, как и на ASUS Striker Extreme, смысла немного. Из-за переключения FSB Strap где-то в районе 400-450 МГц при прохождении этой границы катастрофически падает производительность подсистемы памяти, что, порой, не компенсируется даже существенным приростом тактовой частоты процессора.

И в-третьих, при испытаниях ASUS P5N-E SLI мы столкнулись с ещё одной неприятной проблемой, называемой оверклокерами FSB Hole. Рассматриваемая нами плата продемонстрировала свою полную неработоспособность при установке частот FSB из диапазона от 400 до 450 МГц.

К этому необходимо добавить, что от P5N-E SLI было бы глупо ожидать отсутствия традиционного для плат ASUS несоответствия напряжений. В частности, реальное напряжение на процессоре оказывается ниже установленного в BIOS Setup примерно на 0.05 В. Ещё примерно на 0.05 В оно "проседает" при высокой нагрузке на CPU, что, в принципе, находится в рамках интеловских спецификаций, но, тем не менее, сильно раздражает многих оверклокеров.

Псевдоасинхронное тактование памяти чипсетом nForce 650i SLI делает возможным на рассматриваемой плате и разгон DDR2 SDRAM, который может выполняться совершенно независимо от разгона частоты FSB. На пробу мы решили узнать, до какого предела сможет увеличить эта плата частоту для наших тестовых модулей памяти TWIN2X2048-8500C5D при напряжении 2.4 В. Здесь нас постигло некоторое разочарование: ASUS P5N-E SLI, как оказалось, разгоняет DDR2 SDRAM хуже, чем Striker Extreme. Максимальная достигнутая нами частота на шине памяти составила 550 МГц.

Напомним, на материнской плате ASUS Striker Extreme эти же модули без проблем работали на частоте 587 МГц. Впрочем, существует надежда на то, что разгон памяти в перспективе улучшится с выходом последующих версий BIOS. Так, использовавшаяся нами в тестах прошивка 0401 в этом смысле уже значительно превосходит предыдущие версии, а значит, инженеры ASUS ведут работу в этом направлении.

Тестирование производительности

Так как рассматриваемая в рамках данного обзора материнская плата ASUS P5N-E SLI основывается на наборе логики NVIDIA nForce 650i SLI, с которым ранее мы не сталкивались, интерес вызывает и обычная производительность этой платы. Поэтому мы решили сравнить скорость работы ASUS P5N-E SLI с быстродействием других популярных материнских плат, в основе которых лежат распространённые на рынке чипсеты от AMD, Intel и NVIDIA.

В составе тестовых систем нами был использован следующий набор оборудования:

  • Процессор: Intel Core 2 Extreme X6800 (LGA775, 2.93GHz, 4MB L2).
  • Материнские платы:
    • DFI LANParty UT ICFX3200-T2R/G (AMD Crossfire Xpress 3200);
    • DFI Infinity 975X/G (Intel 975X Express);
    • ASUS P5B Deluxe (Intel P965 Express);
    • ASUS P5N-E SLI (NVIDIA nForce 650i SLI);
    • ASUS Striker Extreme (NVIDIA nForce 680i SLI);
  • Память: 2 Гбайта DDR2-800 SDRAM (Corsair TWIN2X2048-8500C5D).
  • Графическая карта: PowerColor X1900 XTX 512MB (PCI-E x16).
  • Дисковая подсистема: Western Digital WD1500AHFD (SATA150).
  • Операционная система: Microsoft Windows XP SP2 с DirectX 9.0c.
Мы старались поставить тестируемые системы в примерно одинаковые условия, поэтому во всех платформах оперативная память работала на частоте 400 МГц с таймингами 4-4-4-12. Тем не менее, выбранные нами установки контроллеров памяти всё же различались в одном параметре. А именно, в Command Rate. Материнские платы, основанные на чипсетах Intel, как известно, не позволяют изменять эту настройку в силу ограничений набора логики. Поэтому, платформы на i975X и iP965 работали при 2T Command Rate.
ASUS P5B Deluxe ASUS P5N-E SLI ASUS Striker Extreme DFI Infinity 975X/G DFI LANParty UT ICFX3200-T2R/G
Sandra 2007, Memory Bandwidth, MB/s 5687 5993 5959 5701 5496
Sandra 2007, Memory Latency, ns 81 72 70 75 96
SuperPi 8M, sec 220.5 221.4 219.8 221.7 241.5
3DMark2001 SE 44882 44906 45184 45076 44704
3DMark06 6523 6531 6532 6518 6503
3DMark06, CPU 2628 2632 2640 2621 2599
PCMark05 7658 8134 7771 8150 7922
PCMark05, CPU 7533 7540 7550 7531 7500
PCMark05, Memory 6002 6202 6206 6027 5776
Far Cry, 1024x768 189.07 192.38 194.33 189.69 178.39
Half-Life 2, 1024x768 150.87 154.88 155.58 153.54 146.21
Quake 4, 1024x768 High Quality 135.32 136.66 136.72 135.54 130.44
CINEBENCH 9.5, Rendering 910 906 908 918 901
AutoGK 2.4/Xvid 1.2, fps 45.32 44.88 45.5 46.46 43.96
WinRAR 3.70 1360 1461 1467 1468 1235

Как показывают проведённые тесты, производительность ASUS P5N-E SLI оказывается лишь незначительно ниже быстродействия материнской платы более высокого класса, ASUS Striker Extreme. Иными словами, претензий к скорости работы рассматриваемой платы у нас нет никаких.

Впрочем, нельзя забывать о том, что режим SLI реализуется на ASUS P5N-E SLI в несколько урезанном варианте, с использованием шин PCI Express x8. Соответственно, при установке в систему на базе этой платы пары видеокарт, она будет показывать ощутимо более низкую производительность, чем ASUS Striker Extreme, поддерживающая "полноценный" SLI. Уровень отставания в этом случае достигает 20% в наиболее современных игровых приложениях.

Выводы

ASUS P5N-E SLI не лишена недостатков, некоторые из которых отнюдь не пустяковые. Однако благодаря этой плате мы можем сказать с полной уверенностью, что набор логики NVIDIA nForce 650i SLI, на котором она основывается, может стать прекрасной основой для Core 2 систем среднего уровня.

Что же касается непосредственно материнской платы, то, суммируя всё вышесказанное, можно говорить о том, что ASUS P5N-E SLI способна стать альтернативой популярным продуктам, основанным на чипсете iP965. В своей ценовой категории ($120-$140) эта плата обеспечивает неплохую функциональность, хорошую производительность и вполне приемлемые возможности для разгона процессора. Более того, эта плата позволяет эксплуатировать видеокарты на чипах NVIDIA в режиме SLI, хотя и с некоторой потерей в быстродействии по сравнению с более дорогими платами, основанными на nForce 680i SLI, но с выигрышем в скорости по сравнению с использованием одиночной видеокарты.

Впрочем, мы не склонны идеализировать рассмотренную плату. Пока что мы не видели продуктов других производителей, основанных на nForce 650i SLI, на фоне которых плата ASUS, возможно, будет выглядеть не столь выигрышно. Тем более что недостатков у неё немало.

  • Хороший уровень производительности;
  • Возможность разгона шины FSB почти до 500 МГц;
  • Независимый разгон оперативной памяти;
  • Привлекательная цена.
  • Отсутствие качественного охлаждения чипсета и конвертера питания CPU;
  • FSB Hole от 400 до 450 МГц;
  • Неудачный дизайн печатной платы;
  • Шестиканальный интегрированный звук.

Смотрите в этой статье:

Видеокарты на базе NVIDIA GeForce RTX 2070, которым посвящен данный материал, являются младшими моделями из уже представленных на данных момент графических адаптеров нового поколения с архитектурой NVIDIA Turing.

Если не брать во внимание очень специфическую NVIDIA Titan RTX стоимостью $2500, то пользовательские видеокарты с архитектурой NVIDIA Turing представлены семейством NVIDIA GeForce RTX 2080 Ti, RTX 2080 и RTX 2070. Это видеокарты высокого класса, а через некоторое время планируется появление и более простых устройств типа RTX 2060.

Смотрим на характеристики

Графические процессоры для новых видеокарт Turing выполняются по более «тонкому» 12-нанометровому техпроцессу. Но, по слухам, этот техпроцесс не является чем-то принципиально новым, а представляет собой лишь чуть доработанную версию 16-нанометрового техпроцесса, который используется в предшественниках.

Для удобства сравнения характеристики новых GeForce RTX 2080 Ti, RTX 2080 и RTX 2070 и предшественников GeForce GTX 1080 Ti, GTX 1080 и GTX 1070 мы свели их в одну таблицу.

От поколения к поколению видеокарт NVIDIA можно наблюдать рост стоимости видеокарт. Но если ранее он был довольно плавным, то в данном случае адаптеры NVIDIA Turing значительно превзошли предшественников по цене.

За что платим?

Отчасти такое повышение можно объяснить увеличившейся сложностью новых GPU. Обратите внимание, что они имеют сильно возросшее количество транзисторов и значительно более высокую площадь кристалла. Соответственно, можно предположить, что себестоимость таких кристаллов оказывается выше.

Есть некоторые девиации по значениям частот GPU. Память теперь новая. Вместо GDDR5X и GDDR5 видеокарты RTX получили GDDR6.

Но примечательно, что объем памяти в новом поколение видеокарт остался на том же уровне, что и у предшественников.

Очень важно, что появились совершенно новые ядра RT и тензорные ядра. Именно этим обусловлен такой рост числа транзисторов и площади кристалла GPU.

Трассировка лучей

Поколение видеокарт RTX 2080 Ti, RTX 2080, RTX 2070 на базе архитектуры Turing сама NVIDIA называет революционной и связывает это с аппаратной поддержкой трассировки лучей в реальном времени.

Для этого внедрены упоминаемые выше RT-ядра. NVIDIA считает это настолько важным, что привычную приставку GTX в новых видеокартах даже заменили на RTX, где RT - Ray Tracing (трассировка лучей).

Данной технологии на презентации видеокарт нового поколения было уделено чуть ли не главное внимание.

Если упрощенно, то с Ray Tracing связаны новые эффекты отражений на объектах (в том числе взаимных), отражений света и прохождения лучей сквозь объекты. При этом лучи могут иметь реалистичное преломление, наложение и т. д. Ray Tracing также позволяет использовать более реалистичные смягченные тени и формировать правдоподобное освещение.

Это действительно очень важное нововведение для индустрии, но, как ни парадоксально, именно с технологией Ray Tracing и связывают довольно холодный прием новых видеокарт пользователями.

Новые RT-ядра сделали кристалл более крупным и дорогим, а что пользователи получают взамен?

На момент выхода видеокарт RTX не было ни единой игры, которая бы обладала поддержкой Ray Tracing. Сейчас ситуация меняется, но очень медленно.

К примеру, попробовать Ray Tracing вообще в какой-либо игре стало возможно совсем недавно с выходом Battlefield V.

Как оказалось, картинка в Battlefield V с эффектами меняется не так и кардинально. Улучшения есть, но совсем не скажешь, что получаешь принципиально новый уровень восприятия.

А вот вычислительные ресурсы Ray Tracing «подъедает» существенно. При активации трассировки лучей производительность может падаем более чем вдвое.

В результате, даже с дорогущей топовой NVIDIA GeForce RTX 2080 Ti, уровень FPS при Full HD-разрешении, максимальных настройках качества с использованием Ray Tracing не всегда сможет удовлетворить требовательного геймера.

А что тогда говорить о более простых RTX 2080, RTX 2070 и более высоких разрешениях?

Получается, что на данный момент игр с Ray Tracing практически нет, визуально разница в изображении с эффектами RT не такая кардинальная, а активация трассировки приводит к большому падению уровня FPS.

Для пользователей Ray Tracing в реальном времени пока является лишь потенциально перспективной технологией. Посмотрим, как будет развиваться ситуация.

DLSS-сглаживание, тензорные ядра и искусственный интеллект

Вдобавок к совершенно новым RT-ядрам в видеокартах RTX появились и тензорные ядра, предназначенные для рассчетов ИИ и нейросетей. Они работают в связке c RT-ядрами, но тензорные ядра могут использоваться и для других функций.

На базе их работы реализован новый метод сглаживания - DLSS (Deep Learning Super Sampling). Используется сниженное разрешение рендеринга, но за счет ИИ и тензорных ядер видеокарта преобразовывает изображение в более качественное, «додумывая» новые детали.

В зависимости от особенностей реализации за счет этого можно добиться увеличения производительности, повышения качества изображения или того и другого одновременно.

Опять-таки, как и в случае с Ray Tracing, для работы DLSS необходима поддержка со стороны игр. Указывается, что несколько десятков готовящихся к выходу игр будут поддерживать DLSS-сглаживание.

Одним из немногих тестов, где уже сейчас можно проверить DLSS, стал бенчмарк Final Fantasy XV Benchmark. Если в системе установлена видеокарта GeForce RTX, в настройках появляется соответствующий пункт, позволяющий активировать DLSS.

По нашим тестам, активация DLSS привела к существенному увеличению производительности.

Качество изображения с использованием DLSS и с обычным TAA-сглаживанием в данном приложении сопоставимо. Вы можете самостоятельно сравнить кадры с DLSS и с TAA.

DLSS
TAA

Что еще нового?

Продолжает совершенствоваться технология автоматического повышения частоты GPU. В видеокартах NVIDIA RTX используется уже четвертое поколение GPU Boost.

Добавлена возможность ручной корректировки алгоритма работы разгона. Но куда более интересно, что впервые появилась функция автоматического разгона.

Если ранее для определения предельной частоты GPU требовалось экспериментировать, запускать различные игры, приложения, то сейчас процесс может быть сильно упрощен.

В приложениях типа MSI AfterBurner доступен новый пункт Nvidia Scanner. Нажав всего одну кнопку, через минут 15 автоматических тестов вы получите измененную кривую частот/напряжений GPU, соответственно, с более высокими значениями частот.

В наших тестах для всех видеокарт RTX 2070 мы проверяли такой автоматический разгон. Конечно, для получения еще более высоких результатов оверклокинга придется все же проводить более сложный разгон «вручную».

К видеокартам RTX можно подключить сразу два монитора с разрешением 8K. Максимальная кадровая частота будет составлять 60 Гц у обоих устройств вывода изображения.

Порты DisplayPort теперь соответствуют версии DisplayPort 1.4a, а HDMI - HDMI 2.0b. Обратите также внимание на наличие разъема USB Type-C прямо на видеокарте. Он предназначен для новых VR-шлемов.

Впрочем, этот порт может использоваться для любых устройств с поддержкой USB Type-C.

Вполне ожидаемо, что была проведена работа с различными видеокодеками. Например, добавлена поддержка компрессии данных в формате H.265 (HEVC) в режиме разрешении , а также повышено качество кодирования. Учитывая, что сегодня видеокарты активно используются при видеомонтаже, это весьма актуально.

Возможность объединения нескольких видеокарт в одной системе теперь доступна только в видеокартах самого высокого класса. NVIDIA GeForce RTX 2070 такой функции лишены.

Участники теста

В одном тесте нам удалось собрать сразу четыре видеокарты на базе NVIDIA GeForce RTX 2070 от разных производителей.

Это модели ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G, Inno3D GeForce RTX 2070 Gaming OC X2 и MSI GeForce RTX 2070 GAMING Z 8G.

Все они имеют значительные отличия от референсных RTX 2070, получили повышенные частоты и используют фирменные системы охлаждения.

Сравнительная таблица характеристик

Кодовый идентификатор модели ROG-STRIX-RTX2070-O8G-GAMING GV-N2070AORUS X-8GC N20702-08D6X-2511683 -
Поставщик Представ-во ASUS Представ-во Gigabyte Представ-во Inno3D Представ-во MSI
Цена, $ 796 742 675 725
Результаты измерений
Производительность 87,49 87,73 86,21 87,93
100 96,91 98,54 98,79
Производитетльнось/Цена 86,7 93,26 100 95,66
Технические характеристики
Чипсет NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070
Техпроцесс чипсета, нм 12 12 12 12
Тип и объем памяти, ГБ GDDR6, 8 GDDR6, 8 GDDR6, 8 GDDR6, 8
Конструкция системы охлаждения фирменная фирменная фирменная фирменная
Количество вентиляторов системы охлаждения 3 3 2 2
Количество занимаемых слотов 3 3 2 3
Субъективная оценка шумности охлаждения Отлично Отлично Хорошо Отлично
Номинальная частота GPU 1410 1410 1410 1410
Boost-частота GPU 1815 1815 1755 1830
Результирующая частота памяти, МГц 14000 14142 14000 14000
Шина памяти, бит 256 256 256 256
Требует дополнительного питания? да да да да
Тип разъема доп. питания 6pin+8pin 6pin+8pin 6pin+8pin 6pin+8pin
Количество выходов HDMI/DisplayPort/USB Type-C 2/2/1 3/3/1 1/3/1 2/2/1

ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING)

Представленная в тесте ASUS ROG Strix GeForce RTX 2070 OC edition на данный момент является самой мощной, в плане частоты GPU, и продвинутой среди всех видеокарт ASUS на базе RTX 2070 .

Она имеет традиционный для ASUS ROG Strix дизайн, который практически не изменился со времен прошлого поколения.

Устройство получилось довольно крупным и в системе займет три слота расширения.

Тут используется модифицированная плата с конфигурацией фаз питания 10+2 и фирменная система охлаждения с тремя вентиляторами.

Как заявляется, вентиляторы имеют специальную конструкцию, а внутренности защищены от пыли. Кстати, направление вращения всех вентиляторов одинаковое.

Массивный радиатор СО пронизан шестью тепловыми трубками. Подошва теплоприемника имеет особую обработку, которую ASUS называет технологией MaxContact.

При осмотре ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING) со всех сторон обнаруживаются любопытные детали.

На плате установлены сразу две микросхемы BIOS с немного измененными режимами работы платы. Один из них (Performance) предусматривает повышенную эффективность охлаждения, что достигается более высокими скоростями работы вентиляторов, а второй (Quiet) рассчитан на более тихую эксплуатацию. Выбор BIOS осуществляется специальным переключателем.

Кстати, полная остановка вентиляторов при малой нагрузке становится доступна только при использовании варианта BIOS с режимом Quiet.

На торце выведена специальная кнопка для быстрого отключения/включения подсветки. Это неплохое решение, когда надо погасить свечение без использования фирменного ПО.

Также на плате предусмотрена площадка для ручного измерения напряжения RAM, GPU, PLL и набор контактов для подключения светодиодной ленты и корпусных вентиляторов. Скорость вращения этих вентиляторов можно связать с температурой GPU. Это классная функция.

На одной из сторон ASUS ROG Strix GeForce RTX 2070 OC edition можно заметить контакты для подключения светодиодной ленты и корпусных вентиляторов

Частота памяти в данной модели соответствует референсной, а вот Boost-частота GPU повышена очень значительно - с 1620 до 1815 МГц.

В результате ASUS ROG Strix GeForce RTX 2070 OC edition находится среди лидеров теста по производительности. Превзойти Gigabyte AORUS GeForce RTX 2070 XTREME 8G и MSI GeForce RTX 2070 GAMING Z 8G по скорости не удалось, так как все три модели, включая ASUS, имеют похожие рабочие частоты. Уж очень сильные видеокарты участвуют в тесте.

Мониторинг работы ASUS ROG Strix GeForce RTX 2070 OC edition в приложении MSI Afterburner

При работе под нагрузкой в наших условиях температура GPU составила всего 57 ° C . Для всех тестов производительности и замера температуры использовался BIOS с режимом Performance.

Учитывая довольно высокое энергопотребление видеокарты, это просто великолепный результат. К слову, это самое низкое значение температуры среди всех тестируемых видеокарт на базе RTX 2070 в этом тесте.

Скорость вращения вентиляторов составила около 1600 об/мин. При работе видеокарта не будет создавать шумовой дискомфорт.

При использовании автоматического разгона с изначальными настройками максимальная частота GPU почти достигла отметки 2100 МГц.

ASUS ROG Strix GeForce RTX 2070 OC edition позволяет увеличить предел энергопотребления до 125%. Это самое высокое значение в тесте.

Система подсветки состоит из нескольких элементов с RGB-подсветкой на передней панели, светящимся логотипом ASUS ROG по боку и еще одним крупным логотипом, выведенным на заднюю пластину.

Работой подсветки, разумеется, можно управлять. Доступны ряд эффектов, а также возможность смены цвета в зависимости от температуры GPU.

Особенность: цвет свечения может меняться, но одновременно все элементы подсветки имеют один и тот же цвет.

Весьма неплохо, но сегодня уже есть и более продвинутые решения, в том числе и среди участников теста. Подсветка видеокарт Gigabyte AORUS и MSI оказалась еще более крутой.

Фирменное ПО ASUS по возможностям примерно представляет собой объединение MSI Afterburner и GPU-Z

ASUS ROG Strix GeForce RTX 2070 OC edition - это очень мощная видеокарта на базе RTX 2070 с просто-таки отличной по эффективности системой охлаждения.

Она находится среди лидеров по производительности, имеет ряд любопытных дополнительных функций в виде двух микросхем BIOS, контактов для вентиляторов корпуса и светодиодной ленты.

Но при всех своих достоинствах, ASUS ROG Strix GeForce RTX 2070 OC edition обладает и самой высокой стоимости среди других участников теста на базе RTX 2070.

Оценка ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING):

Отличная система охлаждения

Предел энергопотребления выше чем у других участников

Двойной BIOS

Контакты для подключения RGB светодиодных лент и вентиляторов корпуса

— самая высокая стоимость

— большие габариты

— сравнительно скромная комплектация

Если видеокарты ASUS ROG Strix в новом поколении выглядят почти также, как и в предыдущем, то MSI свою серию GAMING видоизменила существенно .

Узнаваемый дизайн с преобладанием красного цвета и вставками, напоминающими когти дракона, решили больше не использовать.

Модель хоть и не такая длинная, но широкая и в системе займет место трех слотов расширения.

MSI GeForce RTX 2070 GAMING Z 8 G (внимание на приставку Z в названии) выделяется более высокими частотами по сравнению с близнецами MSI GeForce RTX 2070 GAMING X 8 G и MSI GeForce RTX 2070 GAMING 8 G и является самой быстрой RTX 2070 у компании MSI на данный момент.

Плата типично для серии GAMING переработанная. Распаяна конфигурация фаз питания 8+2. СО состоит из двух вентиляторов и мощного радиатора с шестью тепловыми трубками.

Если присмотреться, то в каждом вентиляторе чередуются лопасти двух видов. Технология носит название TORX FAN 3.0. В сочетании с новым дизайном рассеивающих пластин радиатора это, по информации производителя, будет способствовать лучшей эффективности.

Система охлаждения и вправду оказалась очень эффективной.

Зафиксированная температура под нагрузкой - 66 °C. Но удивило другое. Данная температура держится при скорости вращения вентилятора всего 1100 об./мин.

В результате видеокарта работает очень тихо . По эффективности охлаждения MSI превзошла других участников кроме, пожалуй, ASUS ROG Strix GeForce RTX 2070 OC edition. Но с СО ASUS сравнивать сложно. С одной стороны, у конкурента более низкая температура, а с другой - это достигается при заметно более высоких оборотах вентиляторов.

Boost-частоте GPU видеокарты MSI GeForce RTX 2070 GAMING Z 8G составляет 1830 МГц. Это самое высокое значение среди всех участников теста. Но превосходство над ASUS ROG Strix GeForce RTX 2070 OC edition и Gigabyte AORUS GeForce RTX 2070 XTREME 8G совсем мизерное. У этих видеокарт данное значение составляет 1815 МГц.

Частота памяти, при этом, стандартная. Логично, что RTX 2070 GAMING Z 8G оказалась среди лидеров по производительности. При автоматическом разгоне максимальная частота доходит до отметки 2100 МГц.

Кривые зависимости частоты и напряжения графического процессора Характеристики MSI GeForce RTX 2070 GAMING Z 8G (данные приложения GPU-Z) со стандартными настройками (сверху) и после автоматического разгона

Доступный лимит энергопотребления - 111%.

Очень порадовала новая система подсветки данной видеокарты . Светящимися участками по периметру окружили вентиляторы. Подсвечивается и логотип на боку.

Все дело в том, как тут реализованы динамические эффекты. В некоторых режимах это, своего рода, цветовое шоу. Хотя тут и нет светящегося элемента на задней пластине данная подсветка MSI понравилась больше, чем решение у ASUS.

В комплекте с видеокартой поставляется дополнительная планка для более надежного крепежа видеокарты в корпусе. Видеокарта действительно увесистая, но, на наш взгляд, большой необходимости в такой планке нет. Вероятно, она не помешает, при транспортировке корпуса.

Планка прикручивается в корпусе компьютера ниже видеокарты после чего устройство опирается на эту планку через мягкие прокрадки

MSI GeForce RTX 2070 GAMING Z 8G отличается и высоким заводским разгоном, и отличной по эффективности системой охлаждения, и интересной новой подсветкой. Хорошая получилась модель.

Оценка MSI GeForce RTX 2070 GAMING Z 8G:

Отличная система охлаждения

Отключение вентиляторов при низкой нагрузке

Значительно повышенные частоты GPU

Продвинутая система RGB-подсветки

Дополнительная планка крепления в комплекте

— большие габариты

Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC)

Даже по сравнению с другими крупными видеокартами в тесте Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказывается еще массивнее.

Gigabyte AORUS GeForce RTX 2070 XTREME 8G слева

Но основной вклад в толщину устройства вносит не радиатор СО, а довольно любопытное размещение вентиляторов.

Они расположены немного внахлест. За счет этого, при умеренной длине, удалось разместить сразу три 100-миллиметровых вентилятора .

Gigabyte AORUS GeForce RTX 2070 XTREME 8 G является самой быстрой RTX 2070 у Gigabyte .

Boost частота составляет 1815 МГц, что, впрочем, сравнимо с тестируемыми ASUS ROG Strix GeForce RTX 2070 OC edition и MSI GeForce RTX 2070 GAMING Z 8G.

Любопытно, что заводской разгон получила и память. Во всех остальных видеокартах RTX 2070 данного теста частоты памяти соотвествуют референсным.

Но прибавка по памяти в случае с AORUS GeForce RTX 2070 XTREME 8G чисто номинальная и мало влияет на итоговую производительность. Частоту подняли со стандартной 14 000 до 14 140.

Производительность Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказалась на уровне видеокарт MSI и ASUS.

Используя автоматический разгон максимальное значение частоты GPU составило около 2100. Что примерно повторяет результаты MSI и ASUS.

Кривые зависимости частоты и напряжения графического процессора Gigabyte AORUS GeForce RTX 2070 XTREME 8G со стандартными настройками (сверху) и после автоматического разгона

Доступный для изменения максимальный лимит энергопотребления - 109%.

Конфигурация фаз системы питания - 10+2.

В отличие от других участников, в конструкции системы охлаждения вместо полированной пластины или испарительной камеры используется вариант, когда сами тепловые трубки касаются GPU.

Всего тепловых трубок пять.

Производитель обращает отдельное внимание, что центральный вентилятор имеет другое направление вращения по сравнению с крайними. Указано, что это позволяет избежать турбулентности и увеличивает эффективность СО.

Умеет модель и останавливать вентиляторы при низкой нагрузке. На боковой панели, традиционно для Gigabyte, даже выведена подсвечиваемая надпись “Fan Stop”, которая загорается, когда вентиляторы бездействуют.

Как такая СО показала себя в деле?

Зафиксированные значения температуры и оборотов вентиляторов под нагрузкой составили 67 °C при 1700 об./мин. Очень неплохо, но, получается, что эффективность СО участвующих в тесте ASUS ROG Strix GeForce RTX 2070 OC edition и MSI GeForce RTX 2070 GAMING Z 8G немного выше.

Система подсветки в Gigabyte AORUS GeForce RTX 2070 XTREME 8G устроена очень необычно.

На краю одной из лопастей каждого вентилятора размещен RGB-диод. Этот диод может менять цвет в зависимости от того, в каком секторе круга он находится при вращении вентилятора . Получаемые эффекты впечатляют.

Видеокарта действительно способна привлечь немало внимания.

Дополнительно подсвечиваются логотипы, размещенные на лицевой, обратной сторонах и на боку видеокарты.

Из-за того, что подсветка AORUS GeForce RTX 2070 XTREME 8G связана с вращением вентиляторов обнаружились и не очень приятные особенности. Во-первых, эффекты с кольцами работают только при работающих вентиляторах. Во-вторых, заметно небольшое мерцание. Второй недостаток, впрочем, выражен не так существенно. Если видеокарта не находится постоянно в вашем поле зрения, неудобств не будет.

У видеокарты Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказалось самое большое количество видеовыходов вреди других видеокарт на базе RTX 2070 в этом обзоре

В комплекте обнаружилась ножка для надежной фиксации видеокарты в корпусе. Да, видеокарта увесистая, но острой необходимости в такой дополнительной поддержке, на наш взгляд, нет.

К слову, уровень материалов и обработки у этой ножки просто изумительные.

Неужели такого рода аксессуары становится трендом для видеокарт высокого класса?

Резюмируя, можно сказать, что Gigabyte AORUS GeForce RTX 2070 XTREME 8G выделяется не только значительным заводским разгоном, но и довольно смелым дизайном в сочетании с любопытной системой подсветки.

Это очень достойный соперник для других мощнейших участников данного теста.

Оценка Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC):

Эффективная система охлаждения

Отключение вентиляторов при низкой нагрузке

Значительно повышенные частоты GPU

Эффектная система RGB-подсветки

Дополнительная ножка крепления в комплекте

— большие габариты

— Эффекты системы подсветки зависят от того, вращаются вентиляторы или нет

Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683)

Inno3D GeForce RTX 2070 Gaming OC X2 - это далеко не рядовая модель. Тут и заводской разгон GPU, и фирменная система охлаждения, и подсветка с RGB-элементами.

Но на фоне других видеокарт GeForce RTX 2070 из данного теста, а это оказались очень продвинутые модели, она выглядит скромнее.

Видеокарта от Inno3 D единственная в тесте занимает не три, а два слота расширения.

Радиатор содержит четыре тепловые трубки и обдувается парой вентиляторов.

Учитывая более скромный класс устройства, по эффективности охлаждения Inno3D GeForce RTX 2070 Gaming OC X2 ожидаемо уступила другим участникам теста.

Мониторинг работы Inno3D GeForce RTX 2070 Gaming OC X2 в приложении MSI Afterburner

Под нагрузкой температура составила 66 °C. Это более чем комфортный уровень, но обороты вентиляторов при этом оказались на уровне 2050 об/мин, что заметно выше, чем у представленных видеокарт ASUS, Gigabyte, MSI.

Соответственно, Inno3D GeForce RTX 2070 Gaming OC X2 работает не так тихо, но уровень ее шума большого дискомфорта создавать не должен.

Видеокарта умеет останавливать вентиляторы при низкой нагрузке, но делает это несколько своеобразно. Перед окончательной остановкой вентиляторы еще пару десятков раз раскручиваются от 0 до, примерно, 600 об./мин. Вполне возможно, что этот «баг» может быть решен в новой версии прошивки, хотя и сейчас существенной проблемой это не является.

На гистограмме видно, как вентиляторы перед полной остановкой некоторое время «пульсирует» со скоростью от 0 до 600 об/мин.

Boost-частота GPU повышена со стандартных 1620 до 1755 МГц. Это неплохой заводской разгон, но, опять-таки, конкуренты оказались уж слишком мощными и у них этот параметр еще выше.

Как результат, Inno3D GeForce RTX 2070 Gaming OC X2 немного уступила соперникам по производительности.

Если проанализировать полученную кривую частоты GPU/напряжения при автоматическом разгоне, то можно увидеть, что максимальная частота GPU примерно на 50 МГц ниже чем у других видеокарт RTX 2070 в тесте при заданных значениях напряжений.

Кривые зависимости частоты и напряжения графического процессора Inno3D GeForce RTX 2070 Gaming OC X2 со стандартными настройками (сверху) и после автоматического разгона

Подсветкой в Inno3D GeForce RTX 2070 Gaming OC X2 оснащены несколько элементов. На лицевой панели логотип Inno3D подсвечивается белым цветом. Зажигаются также и желтые вставки рядом с этим логотипом. А вот логотип Inno3D на боку может светиться уже любым цветом (RGB-подсветка).

Доступно управление подсветкой при помощи приложения.

Да, Inno3D GeForce RTX 2070 Gaming OC X2 несколько уступила соперникам в скорости и в эффективности системы охлаждения. Но для многих это все может быть запросто нивелировано тем, что Inno3 D GeForce RTX 2070 Gaming OC X2 отличается заметно более доступной стоимостью и по соотношению производительности и цены она переигрывает всех других участников данного теста .

А еще у Inno3D GeForce RTX 2070 Gaming OC X2 весьма продвинутая комплектация. Модель поставляется с игровым ковриком и ключами для тестов VRMark, 3DMark.

Оценка Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683):

Наилучший баланс стоимости и производительности среди всех видеокарт на базе RTX 2070 в тесте

Отключение вентиляторов при низкой нагрузке

Заводской разгон GPU

Интересная комплектация

— сравнительно скромная подсветка

— странное поведение вентиляторов при переходе в режим остановки

Как мы тестировали видеокарты

Видеокарты работали с использованием изначальных настроек драйверов, оптимизированные игровые профили не применялись.

Видеокарты тестировались без разгона и без использования фирменных профилей (OC, Gaming, Silence и т. д.), которые иногда доступны при установке фирменного программного обеспечения.

Тестируемые видеокарты на базе RTX 20170 мы сравнивали с видеоадаптерами прошлого поколения на базе GTX 1080 и GTX 1080 Ti, в роли которых выступили MSI GeForce GTX 1080 GAMING X 8G и Gigabyte GeForce GTX 1080 Ti Gaming OC 11G.

В качестве тестовых приложений для определения производительности видеокарт мы использовали современные игры с поддержкой DirectX 11 и DirectX 12, которые имеют встроенные бенчмарки. Также в программу вошли популярные синтетические тесты 3DMark.

В каждой игре применялись максимальные или близкие к максимальным настройки графики. В играх мы использовали разрешение 2560×1440 и 3840×2160 пикс. (4K-разрешение). В 3DMark 11 видеокарты тестировались с предустановкой Extreme, а в 3DMark (2013) использовались тесты Fire Strike Extreme, Fire Strike Ultra и DirectX 12-тест Time Spy.

Отслеживание максимальной температуры GPU и энергопотребления системы (без монитора) производилось в игре Metro: Last Light. Именно в этой игре видеокарты, по наблюдениям, нагревались наиболее интенсивно и происходило максимальное энергопотребление.

Сама система эксплуатировалась вне корпуса ПК (открытый стенд) при температуре в помещении около 21 °C. Уровень шума, создаваемый работой систем охлаждения видеокарт, оценивался субъективно.

Итоговая оценка в категории «Производительность» определялась на базе всех тестов с равнозначным вкладом каждого теста. При этом, если говорить об играх, для уменьшения влияния зависимости от процессора, при подсчете общей производительности (категория «Производительность») учитывались только результаты с разрешением 3840×2160 пикс. (4 K ) .

Результаты с разрешением 2560×1440 пикс. приведены для ознакомления.

Гистограммы нормированы в процентах с сортировкой моделей по результатам тестов. Конкретные результаты в виде баллов и FPS также указаны.

Стоимость видеокарт указана на базе данных крупных интернет-магазинов (на момент публикации) с сайта Hotline.

В отдельном тесте Final Fantasy XV benchmark проводились эксперименты с технологией DLSS (см. гистограмму выше).

Конфигурация тестовой платформы:

Процессор: Intel Core i7-3770K, разогнанный до 4,4 МГц

Материнская плата: Biostar Hi-Fi Z77X

Объем оперативной памяти: 4×4 ГБ DDR3 1600

Накопители: SSD (система), HDD

Операционная система: Windows 10 Pro 64 бит

Монитор: Philips 272P7VPTKEB с разрешением 4K

Используемый драйвер NVIDIA для всех видеокарт: GeForce 416.94

Результаты тестов

Выводы

Как видно по результатам тестов, если сравнивать с решениями прошлого поколения, производительность новых видеокарт на базе RTX 2070 находится между NVIDIA GeForce GTX 1080 и GTX 1080 Ti ближе к GTX 1080.

Тройка ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G и MSI GeForce RTX 2070 GAMING Z 8G - это очень «навороченные» видеокарты. Они имеют продвинутые системы подсветки, значительно повышенные частоты GPU.

Разницу в скорости между ними без специальных тестов вы точно не заметите. По эффективности систем охлаждения в этой тройке лидируют модели от ASUS и MSI.

ASUS позволяет сильнее других увеличить лимит энергопотребления. Эта же модель, кстати, выделяется и самой высокой стоимостью среди всех участников теста.

По впечатлениям от работы подсветки Gigabyte AORUS и MSI можно поставить несколько выше, чем ASUS. Inno3D тут в аутсайдерах.

Представленная в тесте Inno3D GeForce RTX 2070 Gaming OC X2 скромнее на фоне тройки ASUS, Gigabyte AORUS и MSI, хотя тоже далеко не рядовая модель. Она имеет более низкие частоты GPU, не такую продвинутую систему охлаждения и уступит по возможностям подсветки и разгона.

Но, зато, данная модель от Inno3D и самая доступная по цене. По соотношению производительности и стоимости она превосходит других участников теста.

Разница в скорости между Inno3D и тройкой ASUS, Gigabyte AORUS, MSI есть, но она не такая и существенная. Если есть желание сэкономить - это очень достойный вариант.

С самими участниками теста полный порядок. Любая видеокарта из теста - это качественное устройство с высокой производительностью, эффективным охлаждением без каких-то существенных недостатков.

Но новое поколение видеокарт RTX в целом оставляет целый ряд поводов для раздумий, хотя именно переход к RTX производитель называет революционным.

Если не «копать» сильно далеко в прошлое и взять во внимание переходы от поколения GTX 700 к GTX 900 (серия 800 в десктопных видеокартах была пропущена) и от GTX 900 к GTX 1000, то всегда новое поколение видеокарт отличалось сильно возросшей производительностью с одновременным значительным улучшением энергопотребления. При этом большого скачка стоимости равнозначных моделей не происходило.

А что же мы видим сейчас с выходом поколения NVIDIA GeForce RTX?

Да, рост производительности есть, но он не такой заметный, как это было ранее с новым поколением видеокарт.

По энергоэффективности новинки лучше моделей GTX 1000, но совсем незначительно.

А еще вы заметили, что в поколении RTX не произошло роста объема видеопамяти?

Но главное, что новые видеокарты оказались намного дороже своих предшественников .

Причем, ожидать значительного снижения стоимости видеокарт NVIDIA RTX довольно сложно. Они получили намного более сложные и дорогие в производстве графические процессоры.

Проблема в том, что значительная часть усложнений в новых GPU пошла на используемые впервые RT -ядра (аппаратная поддержка трассировки лучей), которые пока мало где можно задействовать . Кстати, на момент выхода видеокарт RTX игр с аппаратной поддержкой трассировки не было вовсе!

И тут еще большой вопрос, стоят ли те изменения в изображении, которые привносит трассировка лучей, очень серьезного падения производительности, происходящего при активации этой функции.

Получается, что на данный момент по соотношению производительности и стоимости новинки RTX 2000 уступают видеокартам-предшественникам серии GTX 1000 (прошлое поколение на архитектуре Pascal).

Да, потенциально RTX 2000 могут наращивать свою привлекательность со временем, с появлением большего количества игр, поддерживающих трассировку лучей и DLSS-сглаживание, но пока об этом говорить рано.

Благодарим компанию Philips за предоставленный 4K-монитор Philips 272P7VPTKEB

Наверное, нет человека хоть мало-мальски интересующегося "железом", который бы не слышал о компании NVIDIA. Но еще совсем недавно ее знали только как одного из ведущих разработчиков графических процессоров. Экспансию на рынок наборов логики для материнских плат производитель начал только в конце 2001 года. Всего за несколько лет NVIDIA сумела занять лидирующие позиции, став крупнейшим поставщиком чипсетов для процессоров AMD. Линейка наборов микросхем nForce снискала заслуженную популярность среди поклонников названой платформы. Вполне логично было ожидать от компании скорого выпуска модификаций и для процессоров Intel. Но прошло довольно много времени, прежде чем компании смогли договориться. Договор о перекрестном лицензировании был подписан только к концу 2004 года. В это время NVIDIA уже представила миру технологию SLI и активно ее "раскручивала". Потому неудивительно, что первым чипсетом для платформы Intel от NVIDIA стал именно nForce4 SLI. Маркетологи компании решили не отказываться от широко известного брэнда nForce и, не мудрствуя лукаво, назвали новую логику - nForce4 SLI Intel Edition (кодовое имя – Crush19).

Чипсет

Функциональность nForce4 SLI Intel Edition (далее IE) и его брата-близнеца для платформы AMD абсолютно идентична. Между тем структура чипсета претерпела некоторые изменения.

Два из них были неизбежны – в набор микросхем был интегрирован контроллер оперативной памяти, а процессорная шина AMD – Hyper Transport - была заменена на 400/533/800/1066 МГц Pentium 4 CPU Interface . Поскольку процессоры Athlon64/FX оснащены встроенным контроллером памяти, разработчикам NVIDIA удалось разместить nForce4 SLI в одном корпусе. При реализации nForce4 SLI IE им пришлось вернуться к классической двухмостовой схеме. В северный мост (SPP) были встроены контроллеры оперативной памяти и интерфейса PCI Express. Южный мост сформирован из устройств, управляющих 5 портами PCI, 10 USB, 4 накопителями с интерфейсом IDE и 4 с SATA II, 7.1-канальным звуком и гигабитной сетью с аппаратным брандмауэром ActiveArmor. Для связи между северным и южным мостами используется шина Hyper Transport.

IE-модификация чипсета работает только с перспективной памятью DDR2 – еще один вестник скорой смерти DDR. По заверению NVIDIA, реализация поддержки обоих типов требует применения ряда компромиссных решений, в конечном счете, негативно сказывающихся на производительности. Контроллер модулей – двухканальный. Напомним, что NVIDIA является первооткрывателем технологии использования двух каналов DDR. Используются два независимых 64-bit юнита, способных работать в спаренном режиме как один 128-bit контроллер.

Для каждого из четырех поддерживаемых чипсетом модулей DIMM, применяется выделенная шина управления и адресации, что дает возможность включения режима 1T address timing (Command Rate), позволяющего значительно снизить латентность памяти.

Причина уменьшения времени задержки лежит на поверхности. В режиме 1T address timing адрес с командой подаются контроллером на шину и записываются в модуль за один такт. В случае использования 2Т, первая операция выполняется за один такт, вторая - за другой. Помимо этого, с активным 1T address timing новый контроллер NVIDIA использует вдвое меньшую, чем разработки Intel, длину прерывания (burst length), что позволяет более эффективно загружать шину. Еще одна оптимизация работы с памятью применная в новом контроллере – улучшенный блок упреждающего чтения DASP 3.0 (Dynamic Adaptive Speculative Preprocessor).

Официально, чипсетом поддерживаются небуферизованные non-ECC DDR2-модули с рабочими частотами 200/266/333 МГц. Но тестирование (гиперссылка на раздел Разгон и тестирование) показало, что логика способна стабильно работать и с более быстрыми модулями. Технология QuickSync позволяет тактировать шины памяти и FSB как в синхронном, так и в асинхронном режиме, что дает широкий простор для деятельности оверклокерам.

Вот, собственно, и все основные отличия чипсета nForce4 SLI IE от nForce4 SLI (AMD).

По сравнению со своими основными конкурентами – чипсетами Intel 955Х и новым 975X, NVIDIA nForce4 SLI IE является более привлекательным.

Характеристика

NVIDIA nForce4 SLI Intel Edition

Intel 955Х Express

Intel 975Х Express

Северный мост

Поддерживаемые процессоры

Pentium 4, Pentium 4 Extreme Edition, Pentium D, Pentium D Extreme Edition и Intel Celeron D

Intel Pentium 4, Pentium 4 Extreme Edition, Pentium D и Pentium Extreme Edition

Поддерживаемые разъемы

Частота системной шины, МГц

400/533/800/1066

Контроллер оперативной памяти

двухканальный контроллер DDR2-400/533/667 с поддержкой 4 модулей DIMM суммарным объемом до 64 GB

двухканальный контроллер DDR2-533/667 с поддержкой 4 модулей DIMM суммарным объемом до 8 GB

ECC

Графический интерфейс

PCI Express x16 или 2 PCI Express x8 (режим SLI)

PCI Express x16 или 2 PCI Express x8

Южный мост

PCI Express, линий

4 PCI Express (3 в режиме SLI)

6 PCI Express x1

PCI, линий

Parallel ATA , каналов

Serial ATA, портов

4 х 3 Gbit/s, NCQ

4 х 3 Gbit/s, NCQ

Поддержка RAID

0, 1, 0+1 (10) и 5

0, 1, 0+1 (10) и 5 из SATA-дисков

USB 2.0 , портов

Звук

Intel High Definition Audio (7.1) или AC"97 (7.1)

Среди явных преимуществ детища калифорнийцев можно выделить отсутствие искусственного ограничения диапазона доступных частот системной шины, наличие второго канала Parallel ATA, уникальную возможность создавать перекрестные RAID-массивы из дисков с интерфейсом PATA и SATA и главный козырь – поддержку режима SLI. При этом не стоит забывать и о бо льшей приспособленности nForce4 SLI IE к разгону, что также немаловажно для компьютерных энтузиастов. Серьезное нарекание чипсет может получить только за поддержку старого звукового стандарта АС"97 вместо новомодного High Definition Audio.

Что ж, давайте теперь посмотрим на реальное изделие на основе нового чипсета – материнскую плату ASUS P5ND2-SLI.

Технические характеристики ASUS P5ND2-SLI

Как это принято у тайваньской компании ASUS, логика представлена несколькими модификациями платы. Базовой моделью является P5ND2-SLI Deluxe. Более дешевая P5ND2-SLI получилась общеизвестным и широко распространенным способом упрощения – использована та же разводка печатной платы, но не распаян ряд контроллеров. Правда, благодаря довольно высокому уровню функциональности чипсета, простой P5ND2-SLI также не назовешь.

Поддерживаемые процессоры

Pentium 4, Pentium 4 Extreme Edition, Pentium D, Pentium D Extreme Edition и Intel Celeron D, Socket LGA 775

Чипсет

NVIDIA nForce4 SLI Intel Edition

Слоты памяти

4 DIMM-слота (два канала) для не буферизованных non-ECC DDR2-667/533/400 модулей, максимальным суммарным объемом до 16 GB.

Слоты расширения

2 х PCI Express x16 (х8), 2 x PCI Express x1, 3 x PCI

Parallel ATA

2 канала UltraDMA 133 реализованных на контроллере интегрированном в чипсет

Serial ATA

4 порта 3 Gbit/s (SATAII) реализованных на контроллере, интегрированном в чипсет.

RAID 0, RAID 1, RAID 0+1, RAID 5

Ethernet

10/100/1000 Mbit/s на Intel 82540EM

Интегрированный звук

10 портов, (4 выведено на заднюю панель)

IEEE 1394

Системный мониторинг

Отслеживание напряжения на компонентах, скорости вращения вентиляторов, температуры процессора (по встроенному термодатчику). Чип ITE IT8712F.

Дополнительные возможности

ASUS CrashFree BIOS2, AI Overclocking, AI NOS, MyLogo2

Возможности разгона

Точная настройка частоты FSB и оперативной памяти, таймингов, напряжения на компонентах.

Phoenix Award BIOS, 4 Mbit flash EEPROM

Форм-фактор

ATX, 245 мм x 305 мм (12" х 9.6")

Плата принадлежит к серии ASUS AI (Artificial Intelligence – искусственный интеллект) и имеет целый ряд возможностей. призванных сделать компьютер более "умным" и "человечным". Вообще, по нашим подсчетам, в настоящий момент ASUS является рекордсменом по количеству так называемых "фирменных" технологий, среди которых можно выделить следующие:

  • AI NOS (Non-delay Overclocking System) – система динамического оверклокинга определяющая степень загруженности процессора и автоматически разгоняющая систему при возрастании нагрузки. Величина разгона и "порог" срабатывания технологии определяются пользователем.
  • AI Overclocking – набор настроек для разгона процессора и памяти ориентированный на начинающих оверклокеров.
  • CPU LockFree – возможность изменения множителя процессора в сторону уменьшения, что дает, например, теоретическую возможность превратить Pentium 4 на ядре Prescott 2M в Pentium 4 Extreme Edition.
  • Q-Fan – автоматическая настройка скорости вращения крыльчатки процессорного кулера, в зависимости от показаний термодатчика.
  • AI Quiet – функция базирующаяся на технологии Intel SpeedStep и работающая совместно с Q-Fan. В моменты уменьшения нагрузки на процессор снижает частоту и напряжение, что позволяет снизить уровень тепловыделения, энергопотребления и шума системы.
  • CrashFree BIOS2 – функция автоматического восстановления поврежденного микрокода BIOS, с помощью диска входящего в комплект.
  • Multi-Language BIOS – опция с "прозрачным" названием и практически бесполезная для нашего региона ввиду отсутствия русского языка.

На этом список для данной платы заканчивается. Если бы мы рассматривали ее Deluxe-модификацию, его можно было бы продолжать и дальше.

Упаковка и комплектация

Плата поставляется в симпатично оформленной коробке стандартных размеров. В комплект поставки входят следующие вещи:

  • два 80-жильных IDE-кабеля и один для FDD;
  • два SATA-кабеля;
  • два переходника со штекера питания Molex на два SATA;
  • SLI-мостик с фиксирующим кронштейном;
  • заглушка для I/O панели на заднюю стенку корпуса;
  • CD с драйверами и программным обеспечением;
  • руководство по эксплуатации, и памятка по сборке.

Для упрощенной модификации Hi-End платы набор весьма неплохой. Излишеств не наблюдается, но практически все необходимое присутствует. Хотя, учитывая отсутствие на задней панели COM-порта, все же хотелось бы видеть в комплекте соответствующий кронштейн.

Дизайн и компоновка

Материнская плата P5ND2-SLI выполнена на текстолите шоколадного цвета.

При первом взгляде на дизайн, сразу обращаешь внимание на отсутствие каких-либо вентиляторов, используемых для охлаждения компонентов (Fanless Design), что нетипично для продуктов на основе чипсета nForce4 SLI. Для отвода тепла от северного моста (SPP) используется выкрашенный в красный цвет алюминиевый радиатор довольно сложной формы и необычайно больших размеров.

Южный мост (MCP) оснащен теплосъемником поменьше. Примечательно, что в качестве теплопроводящего интерфейса в обоих случаях используется термопаста, по качеству напоминающая популярную КПТ-8.

Силовые транзисторы, стабилизирующие напряжение двух наиболее загруженных каналов питания процессора, также охлаждаются радиатором, что помогает сделать выходные характеристики конвертера более гладкими.

Пространство около процессорного разъема достаточно свободно для установки кулеров любой формы и размеров, близких к стандартным. Но при инсталляции нетривиального решения –Thermaltake Big Typhoon, возникла проблема: прижимная пластина устройства "упирается" в высокий конденсатор, что не позволяет создать достаточное усилие в одной из четырех точек приложения прижимной силы.

В общем-то, для проведения тестирования подошел и такой вариант, но все же неприятность легко устранима. Об этом позаботились инженеры Thermaltake, положив в комплект альтернативную сборную пластину иной формы. Что ж, браво специалистам Thermaltake и никаких претензий по этому вопросу к разработчикам ASUS. В который раз повторюсь, что совместимость продукции должны продумывать скорее производители нестандартных кулеров, чем дизайнеры материнских плат.

Но за конструкторами ASUS есть другой грешок. Взглянув на радиаторы северного моста и силовых транзисторов, легко заметить, что их ребра развернуты по ходу воздуха, выходящего из гипотетического процессорного кулера. Так что система охлаждения компонентов на самом деле псевдо-пассивная. Действительно, большой чипсетный радиатор в отсутствие обдува, даже в штатных режимах работы платы, довольно быстро раскаляется до такой степени, что до него и дотронуться было страшно, не говоря о том, чтобы подержать палец (применялся открытый стенд). Поскольку вентилятор все того же Big Typhoon расположен довольно высоко над материнской платой, от тайфуна, создаваемого 120 мм крыльчаткой, до радиатора северного моста доходил лишь легкий знойный ветерок. А ведь чипсет nForce4 SLI ориентирован на компьютерных энтузиастов, которые могут запросто установить на процессор систему водяного охлаждения, и вовсе лишив обдува элементы платы. В очередной раз отметим, что современной логике NVIDIA больше подходят активные кулеры. Но все же, отметим, что в ходе тестирования никаких нестабильностей в работе платы по причине повышенного нагрева замечено не было.

Слоты PCI Express x16 разделены не одним, как это часто бывает, а двумя разъемами PCI Express x1.

ASUS указывает, что сделано это было неслучайно, а для улучшения температурного режима работы связки из двух видеоадаптеров. Действительно, увеличившееся расстояния между ускорителями должно улучшить отвод тепла от радиатора устройства, расположенного в верхнем слоте. Для переключения между режимами работы графических разъемов используется привычный двухсторонний кусочек текстолита с дорожками – SLI-терминатор.

Питание на процессор подается с восьмиконтактного разъема EATX12V, полностью совместимого со старыми четырехконтактными ATX12V.

Слоты памяти вертикально расположены в правой части платы. Разъем питания и колодка FDD также находятся в положенных местах.

Примечательно, что первая колодка одного из поддерживаемых чипсетом каналов IDE распаяна в нижней части платы, чтобы быть ближе к корзине с жесткими дисками, а другая смещена вверх, к оптическим приводам, – решение нетривиальное и полезное.

Как было сказано выше, продукт, попавший на тестирование, является наиболее простой модификацией, потому на текстолите можно заметить много мест с разведенными дорожками, но не распаянными дискретными чипами. В частности, более дорогая модель в дополнение к четырем портам SATA II, поддерживаемым двумя независимыми контроллерами, интегрированными в южным мост чипсета, имеет еще два разъема, подключенных к распространенному чипу Sil3132 производства Silicon Image. Один разъем (External SATA port) выводится на заднюю панель, другой - располагается возле первого слота PCEe x16. Еще одно место для такого же чипа предусмотрено возле четырех основных портов, но ASUS пока не выпускает модели с третьим контроллером.

Помимо этого на текстолите можно увидеть дорожки, разведенные под нераспаянный чип Texas Instruments TSB43AB22A, обеспечивающий поддержку двух портов IEEE 1394.

Продвинутые сетевые возможности чипсета, физически реализованы на контроллере Intel RC82540 использующем шину PCIe х1.

На Deluxe-версию платы устанавливается еще один сетевой чип – Marvell 88E1111.

Встроенный звук базируется на широко распространенном сегодня 8-канальном (7.1) AC"97-кодеке Realtek ALC850.

На заднюю панель материнской платы ASUS P5ND2-SLI выведены следующие порты и разъемы:

  • два гнезда PS/2 для подключения мыши и клавиатуры;
  • четыре USB 2.0;
  • сетевой RJ-45;
  • один параллельный (LPT);
  • восемь входов-выходов звуковой карты (mini-jack).
  • коаксиальный выход S/PDIF.
Конечно, нельзя не посетовать на отсутствие на задней панели COM-порта. В Deluxe-модели его место занимает внешний разъем SATA, а на нашем экземпляре это место и вовсе пустует. Но ведь сегодня огромная часть Internet-пользователей получает доступ к сети через dial-up, и даже "продвинутые" модели модемов все еще используют последовательный интерфейс. Потому наличие хотя бы одного COM-пора на задней панели все еще является насущной необходимостью. Хотя не все так плохо: на плате все же есть колодка для подключения недостающего COM, вот только соответствующий брекет придется приобретать отдельно.

BIOS и программное обеспечение

Базовая система ввода-вывода материнской платы ASUS P5ND2-SLI основана на Phoenix Award BIOS и записана в 4 Mb flash-микросхему. Меню BIOS setup имеет привычный для плат ASUS вид.

Не обращая внимания на скучные пункты конфигурации устройств, присутствующие в полном объеме, сразу переходим на закладку Advanced. Все основные опции, необходимые для разгона системы, сосредоточены в пункте JumperFree Configuration.

Первым делом оверклокеру предоставляется выбор одного из шести способов осуществления разгона. Профили Standard и Auto так и остались для меня загадкой. При их активации все опции раздела просто блокировались. Выбор Safe Mode накладывает некоторые ограничения на действия пользователя. В опции AI Overclock доступен выбор увеличения частоты системной шины на 5, 10, 15 и 20 % или соотношения клокинга FSB и оперативной памяти из набора 960/800, 1280/800, 1000/667, 1333/667, 1200/800 МГц.

Набор в профиле AI NOS несколько проще – величина овердрайва может составлять 3, 5, 8 и 10 %.

Но все же, учитывая величину тепловыделения современных процессоров Intel, данный режим может оказаться более предпочтительным, так как производит разгон только по необходимости и позволяет полноценно функционировать технологии Intel SpeedStep. К тому же программисты ASUS реализовали настройку чувствительности системы, позволяющую пользователю выбрать одну из трех условных степеней загруженности процессора – Sensitive, Standard и Heavy Load, по достижении которой активируется NOS.

Наконец, для опытных оверклокеров доступен профиль Manual, после активации которого становятся доступными подпункты Frequency Control, Spread Spectrum Control, Voltage Control. Не трудно догадаться, что в первом сосредоточены возможности управления основными частотами. Настройка скорости FSB осуществляется с особой точностью. Шаг привычен – 1 МГц, но поскольку он относится к регулировке частоты процессорной шины QPB (Quad Pumped Bus) для вычисления которой используется множитель 4, реальное приращение клокинга тактового генератора составляет 0.25 МГц. Доступный диапазон настройки - 790-1600 (197.5-400) МГц.

Для определения скорости оперативной памяти используется огромный набор делителей, фактически позволяющий настраивать ее частоту с шагом 1-10 МГц независимо от FSB в пределах от 400 до 1200 (DDR) МГц.

Такая точность управления шинами позволяет терпеливому оверклокеру выжать из своей системы все, вплоть до последнего стабильного мегагерца.

Клокинг шины PCI Express регулируется в пределах от 100 до 150 МГц с шагом 1 МГц. Впрочем, в данном случае эта опция практически бесполезна, так как в отличие от чипсетов Intel, nForce4 SLI IE остается стабильным даже при значительном "перекосе" частот различных блоков и не требует увеличения клогинга PCI синхронно с FSB.

Несмотря на то, что настройки подпункта Spread Spectrum Control сами по себе не представляют никакой пользы для оверклокера, в рассматриваемое меню они были включены неслучайно. Дело в том, что зачастую активированный режим подавления радиопомех, создаваемых различными шинами, становится препятствием для серьезного разгона.

В подпункте Voltage Control сосредоточен богатый набор средств для регулировки напряжений на компонентах. Все значения, выходящие, по мнению инженеров ASUS, за рамки безопасных, выделяются цветом.

Вольтаж на модулях оперативной памяти можно увеличить в пределах от 0.05 до 0.5 В с шагом 0.05 В.

Северный и южный мосты можно "подогреть" на 0.1-0.2 В.

Доступные значения вольтажа FSB составляют 1.25, 1.3, 1.35, 1.4 В.

Диапазон регулировки напряжения питания процессора: 0.9375-1.7000 В с шагом 0.0125, чего вполне достаточно даже для экстремального разгона. Но использование этой настройки приводит к неработоспособности технологии снижения тепловыделения процессора Enhanced Intel SpeedStep (EIST).

Следующая опция позволяет задать приращение вольтажа питания CPU на 0.1 В относительно номинального, при сохранении функции EIST.

В принципе, этого должно хватить, при умеренном оверклокинге.

Вернувшись на закладку Advanced, заглянем в любопытный пункт CPU Configuration. Здесь, в случае необходимости, можно активировать функцию CPU Lockfree, изменить множитель частоты процессора, определить множитель и напряжение при срабатывании встроенной в ядро Prescott 2M защиты от перегрева Thermal Monitoring2, активировать EIST, C1E, а также аппаратную защиту от вирусов – Execute Disable Bit.

И, наконец, в разделе Memory Timing Configuration пользователю открывается достаточно широкий набор задержек:

  • CAS# Latency (Tcl): 1-6;
  • RAS# to CAS# delay (Trcd): 1-7;
  • Row Precharge Time (Trp): 1-7;
  • Min RAS# active Time (Tras): 5-31.

Особо отметим возможность выбора нового, для платформы Intel, режима адресации памяти (address mode) 1Т.

Как видите, BIOS материнской платы ASUS P5ND2-SLI обладает достаточно богатым набором настроек для оверклокинга. Можно даже сказать, что видеть такое обилие опций на продукте под платформу Intel, по крайней мере, непривычно.

Но для управления этими возможностями, заходить в меню конфигурации BIOS вовсе не обязательно. Все основные опции продублированы в программе ASUS AI Booster, поставляемой вместе с платой.

Оболочка запускается под ОС Windows, имеет довольно стильный дизайн и позволяет контролировать напряжения на всех основных компонентах, скорость вращения вентиляторов, а также показания термодатчиков процессора и материнской платы. Доступно также изменение опций AI NOS, AI Overclocking, частот FSB и памяти, напряжений.

Характерной чертой программы является то, что все произведенные пользователем настройки сохраняются в микросхеме BIOS. Такой подход имеет как плюсы, так и минусы. С одной стороны, конфигурировать BIOS гораздо удобнее и приятнее в графической среде Windows. С другой, начинающий пользователь, расслабившийся из-за легкости и наглядности процесса разгона, введя чересчур оптимистичные значения частот, может сделать систему незагружаемой. Правда, и в этом случае ничего страшного не произойдет. Поскольку технология Watch Dog Timer (по версии ASUS – CPU Parameter Recall) реализована достаточно неплохо, пользователю придется всего лишь выждать около 10 секунд, после чего все настройки, касающиеся оверклокинга, будут сброшены. Напоследок отметим, что программа AI Booster ведет себя абсолютно стабильно при разгоне системы, отлично справляясь с этой функцией.

Для тех обладателей платы, которые по каким-либо причинам не желают заниматься оверклокингом, но хотят при этом иметь доступ к средствам системного мониторинга из-под Windows, ASUS предлагает утилиту PC Probe. Программа состоит из двух модулей. Первый позволяет настроить пороговые значения параметров, за которыми производится наблюдение и при достижении которых срабатывает сигнализация. Второй представляет собой ряд блоков, отображающих текущие значения напряжений, температур и скоростей.

Прямоугольники с показаниями датчиков можно располагать в произвольном порядке: в линию, в столбик, пирамидой и т.д.

Для обновления версии BIOS в комплекте присутствует утилита ASUS Update, способная автоматически осуществлять поиск наиболее свежей версии на сайте производителя, и осуществлять прошивку.

Ну и напоследок упомянем наличие, на радость эстетам, утилиты MyLogo, которая поможет установить любую картинку в качестве заставки, отображаемой во время прохождения компьютером POST.

Разгон и тестирование

Тестирование проводилось на стенде следующей конфигурации:

  • процессор: Intel Pentium 4 670 (Prescott 2M, N0), 3800 МГц (19 x 200);
  • оперативная память: 2 х 512 MB, Kingmax KLCC28F-A8HD5-HGES DDR2-667 (SPD 5-5-5-15 333 МГц);
  • видеокарты: 2х PALIT GeForce 6600 GT PCI-E (500/1000 МГц, 8/3 pipelines);
  • жесткие диски: Seagate ST3200822AS 200 GB SATA 7200 об/мин и Seagate ST3120827AS 120 GB SATA 7200 об/мин;
  • блок питания: FSP 550 Вт (FSP550-60PLN);
  • кулер: Thermaltake Big Typhoon 1300 об/мин;
  • операционная система: Windows XP Professional SP2 (ENG).

Итак, в составе стенда применялся топовый процессор Intel на ядре Prescott 2M новой ревизии N0.

Данный CPU использует высокий множитель (19) и потому предъявляет к материнской плате довольно "мягкие" требования при разгоне. В частности, к ее способности работать при высоких частотах FSB. Для того чтобы достичь максимальной (исходя из результатов разгона полученных на других платах) частоты нашего экземпляра, ядра Prescott 2M (4294 МГц), понадобилось бы лишь увеличить клокинг тактового генератора со стандартных 200 до 226 МГц. Но выполнить эту нехитрую операцию оказалось непросто. Плата повела себя довольно странно: при скорости QPB равной 902 (225,5) МГц процессор работал абсолютно стабильно и проходил весь набор тестов. Но уже при 903 (225,75) МГц система просто не стартовала.

Понижение частоты памяти, увеличение задержек, повышение напряжений на компонентах и даже "пляски с бубном" вроде ускорения шины PCI Express и отключения функций энергосбережения, гипотетически способных препятствовать разгону, так и не помогли преодолеть барьер. Прошивка наиболее свежей, на момент тестирования, версии BIOS (0501) не изменила ситуации. Конечно, оставалось только предположить, что плата не способна стабильно работать на частотах тактового генератора более чем 225,5 МГц. Что ж, проверить данное предположение не трудно. Понижаем множитель процессора до 14, а частоту памяти удерживаем ниже номинальной. В результате клокинг FSB удалось поднять до 241 МГц, но при дальнейшем увеличении плата стала вести себя несколько нестабильно. Увеличив напряжение на FSB (CPU Termination Voltage) до 1.4 В, частоту удалось увеличить до 263.7 МГц.

Еще немного, и плате удалось бы достичь заветных 266 МГц. Заветных потому, что возможность установить клокинг QPB равный 1066 МГц (266 х 4) позволяет легко превратить практически любой Pentium 4 на ядре Prescott 2M в Pentium 4 Extreme Edition. В частности, для того, чтобы получить топовый Pentium 4 Extreme Edition 3.73 МГц (14 х 266), наш экземпляр даже не пришлось бы разгонять. Тем не менее, мы видим, что плата способна работать при скорости FSB большей, чем ставшие барьером 225.5 МГц. В принципе, на этом можно было бы и закончить, решив, что 4284 (225,5 х 19) МГц - предел данного экземпляра процессора, если бы перед автором не стояла задача проверить стабильность платы при разгоне из-под Windows с помощью фирменной программы ASUS AI Booster. Здесь мне довелось увидеть совсем другие результаты: тестовому Pentium 4 670 удалось достичь 4502 (237 х 19) МГц при напряжении, повышенном на 0.1 В.

Жаль, но добиться при этом стабильности не удалось. Процессор нормально "проходил" SuperPi, помог автору установить новый личный рекорд в этом тесте, рассчитав число Пи с точностью 1М и 4М за 29 и 149 секунд соответственно, но "споткнулся" на 3DMark 2006. Как уже было сказано выше, программа AI Booster после подтверждения пользователем измененных настроек сохраняет их в BIOS. Потому, учитывая тот факт, что плата не стартовала при превышении частоты шины свыше 225.5 МГц, для меня не стало неожиданностью, что после нескольких часов стабильной работы процессора при 4483 (236 х 19) МГц, перезагрузка приводила к зависанию системы при прохождении POST. Все это выглядит довольно странно. Очевидно, что в данном случае мы имеем дело с частной проблемой реализации разгона в BIOS, проявившейся в работе с конкретной конфигурацией. Тем не менее, плата позволила значительно улучшить максимальный результат разгона нашего процессора. Ранее процессору не удавалось преодолеть барьер в 4300 МГц. Жаль, только что плата не позволяет загружаться с данным показателем.

Весьма полезной может оказаться система динамического оверклокинга (NOS). Во время тестов функция работала вполне стабильно, без каких-либо нареканий. Существенным недостатком является только низкий процент максимального разгона. Ведь 10% прироста скорости FSB недостаточно для достижения частотного предела даже топового процессора с максимальным множителем 19, не говоря уже о младших моделях.

Достаточно важной особенностью контроллера памяти чипсета nForce4 SLI IE является возможность работать с задержкой адресации в один такт, а также наличие большого количества делителей, позволяющих тактировать рабочую частоту практически независимо от FSB. В составе стенда применялась оперативная память Kingmax KLCC28F, в SPD которой можно найти следующую информацию.

При напряжении питания, повышенном до 2.1 В, модули стабильно работали при любой частоте в диапазоне от 200 (DDR2-400) до 400 (DDR2-800) МГц, независимо от FSB. Так что остается только констатировать: новый чипсет NVIDIA действительно способен независимо тактировать различные шины, в отличие от решений Intel, имеющих всего несколько делителей скорости памяти и зачастую требующих повышения клокинга PCI Express синхронно с FSB. Самые низкие задержки, при которых модули Kingmax KLCC28F, используемые в составе стенда, смогли работать при штатной частоте 333 (DDR2-667) МГц, составили 4-4-4-12 1T. При тех же таймингах память стабильно функционировала и при 400 (DDR2-800) МГц. Эта особенность дает нам возможность сравнить прирост производительности от повышения рабочей частоты модулей без увеличения задержек. Таким образом, для тестирования у нас получилось три режима работы системы, не считая вариаций с наличием второй видеокарты (SLI).

Частота процессора, МГц

Частота FSB/Quad Pumped Bus, МГц

Частота оперативной памяти (DDR2), МГц

Напряжение питания процессора, В

Напряжение питания FSB, В

Напряжение питания оперативной памяти, В

Тайминги оперативной памяти (Tcl-Trcd-Trp-Tras, CR)

Прямыми конкурентами чипсета nForce4 SLI Intel Edition являются топовые решения от Intel – 955X и 975X. Поскольку серийные продукты на базе новоиспеченного i975X пока еще слишком слабо распространены, и могут иметь проблемы со скоростью из-за "сырости" BIOS, сравнивать производительность решения NVIDIA мы будем с чипсетом i955X, представленным платой Intel D955XBK.

Первый полусинтетический пакет тестов не дает сколь ни будь ясное представление о расстановке сил. Разбежка в скорости вписывается в погрешность измерений, за исключением лишь графической составляющей, где логика NVIDIA заметно быстрее.

Остальные тесты лишь подтверждают результаты, полученные в PCMark05. Довольно интересно, что производительность системы практически не изменилась при повышении частоты модулей с 667 до 800 (DDR) МГц. Трудно сказать, чем это вызвано, руководствуясь лишь общими данными об архитектуре чипсета и контроллера памяти в частности. Остается лишь констатировать факт – частота модулей DIMM свыше 667 МГц, при описанной конфигурации системы практически бесполезна для увеличения производительности.

Выводы

Появление столь сильного игрока как NVIDIA на рынке чипсетов для платформы Intel – событие, безусловно, знаковое. Конечно, говорить о захвате логикой nForce4 SLI Intel Edition значимых позиций по количеству продаж не приходится. Все-таки набор микросхем ориентирован скорее на компьютерных энтузиастов, чем на обычных пользователей. Но NVIDIA уже сделала новый шаг в экспансии на новые просторы, анонсировав 17 января Intel-версию наиболее удачного чипсета для платформы AMD – nForce4 Ultra. При этом возможности наборов логики калифорнийцев для разгона системы не могут быть не оценены оверклокерами. Потому, сегодня, когда цены на приблизительно аналогичные модели процессоров обеих производителей близки как никогда, противостояние компаний может еще больше усилиться.

Возвращаясь к чипсету nForce4 SLI, отметим, что по общей производительности логика как минимум не проигрывает топовым решениям Intel, держа при этом открытым главный козырь – реально работающую технологию SLI.

Что касается рассмотренной материнской платы ASUS P5ND2-SLI, то здесь мы видим очередной добротный и качественный продукт известного тайваньского производителя. Несмотря на то, что речь идет о самой простой модификации, плата обладает функциональностью, достаточной для большинства среднестатистических пользователей, укомплектована внушительным набором фирменных технологий и программного обеспечения и, при этом, демонстрирует весьма неплохие способности к разгону. К недостаткам продукта можно отнести некоторые просчеты с охлаждением.

Платы ASUS P5ND2-SLI и MSI 945P Neo, DDR2-память Kingmax и видеокарты Palit GeForce 6600 PCI-E были предоставлены компанией Ронгбук


Современные видеокарты на чипсетах компании NVIDIA

Алексей Шобанов

реди тех, кто хоть как-то связан с использованием ПК в повседневной жизни, вряд ли найдется сегодня хоть один человек, которому не знакома аббревиатура «NVIDIA». Название этой компании уже давно стало своего рода синонимом понятия «видеокарта», а также символом высочайшей производительности. Однако серьезная конкуренция в этом секторе ИТ-рынка никогда не позволяет NVIDIA почивать на лаврах, а в последнее время борьба за лидерство обострилась на столько, что говорить о ее безоговорочном лидерстве было бы уже не совсем корректно. Тем не менее компания NVIDIA была, есть и, надеемся, будет и впредь одним из лидеров индустрии кремниевой логики для графических карт. Компания NVIDIA предлагает свои решения для всего спектра графики, начиная от чипсетов для недорогих видеокарт так называемого low-end-сектора (здесь уместно упомянуть и о наборах микросхем системной логики с интегрированным графическим ядром серий nForce, nForce 2 и nForce 3, которое также можно причислить к бюджетным решениям видеоподсистемы) и заканчивая наборами микросхем для hi-end-графики и профессиональных видеокарт.

Темой же данного обзора станут современные чипсеты NVIDIA поколения DirectX 9 с интерфейсом AGP. Хотя эти наборы микросхем значительно отличаются по производительности, цене, и в той или иной мере, по своей технической реализации, их объединяет то, что все они поддерживают работу API DirectX 9, а это, в свою очередь, обусловливает обязательное наличие поддержки пиксельных и вершинных шейдеров версии 2.0. К числу таких чипсетов следует отнести наборы микросхем серии GeForce FX, основанные на графическом ядре NV30 (GeForce FX 5800 и GeForce FX 5800 Ultra), на пришедшем ему на смену NV35 (GeForce FX 5900, GeForce FX 5900 Ultra и GeForce FX 5900 FX), на NV38 (GeForce FX 5950 Ultra), на NV31 (GeForce FX 5600 и GeForce FX 5600 Ultra), наследником которого стало ядро NV36 (GeForce FX 5700 и GeForce FX 5700 Ultra), а также на ядре NV34 (GeForce FX 5200, GeForce FX 5200 Ultra и GeForce FX 5500). C некоторой оговоркой к этому же поколению можно отнести и последние чипсеты серии GeForce 6, появление которых стало новым этапом в развитии компьютерной графики, поскольку, помимо прочего, графическое ядро NV40, положенное в основу чипов этой серии, стало первым решением, поддерживающим пиксельные и вершинные шейдеры версии 3.0. Таким образом, отбросив уже покидающие «большую сцену» чипы на ядре NV30 и NV31, в этом обзоре мы решили рассмотреть возможности следующих графических чипсетов компании NVIDIA: GeForce FX 5500, GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra.

Начнем наш обзор с краткой спецификации современных графических чипсетов NVIDIA, которая наглядно иллюстрирует их возможности, и, опираясь на эти данные, попробуем указать на достоинства и недостатки этих решений (табл. 1).

Таблица 1. Технические характеристики современных графических чипсетов NVIDIA

Представленные в таблице чипсеты, выпускаемые сегодня компанией NVIDIA, практически полностью охватывают все ценовые сегменты рынка ПК - от решений для геймеров и энтузиастов (GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra) до рынка бюджетных ПК (GeForce FX 5500, а также GeForce FX 5200 и GeForce FX 5200 Ultra, не вошедшие в данный обзор). Маркетологи NVIDIA проводят более общее деление этих продуктов - например графические чипы серии GeForce FX они условно разбивают на две группы: perfomance (GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra) и mainstream (GeForce FX 5500, GeForce FX 5200 и GeForce FX 5200 Ultra). Основой для подобной классификации служат не только показатели производительности и цены чипов, но и реализованные в них технологии (табл. 2).

Пожалуй, следует сказать несколько слов о том, что скрывается за звучными названиями этих технологий.

Начнем с CineFX. В общем понимании CineFX - это архитектура графического ядра, которая позволяет чипам NVIDIA воссоздавать различные эффекты кинематографического качества для игра и других прикладных задач в реальном времени. Наиболее емко характеризуют данную архитектуру такие возможности, как гибкость, адаптивность и программируемость. Так, для архитектуры CineFX отсутствует понятие пиксельного конвейера в классическом смысле этого термина. Здесь уже нет набора независимых, логически завершенных параллельно работающих функциональных единиц - в данном случае речь идет о некоем наборе вычислительных блоков (ALU) и блоков выборки текстур. На основе поставленных задач этот массив элементов образует цепи, являющиеся по своей сути теми самыми пиксельными конвейерами, при этом адаптивно пытаясь воссоздать наиболее производительную архитектуру за счет варьирования числа блоков выборки текстур, связанных в образуемый конвейер. Еще одной неотъемлемой частью архитектуры CineFX является расширенная поддержка пиксельных и вершинных шейдеров DirectX 9, что особо подчеркивается компанией NVIDIA: даже в спецификациях чипов обозначается номер версии шейдеров - 2.0+. Что же означает этот плюс? А то, что в отношении пиксельных шейдеров план перевыполнен по всем показателям: максимальная длина пиксельного шейдера для графического ядра с архитектурой CineFX практически неограниченна (до 2048 инструкций при требуемых 96), а кроме того, намного увеличено количество заранее заданных констант и временных регистров. Реализация поддержки вершинных шейдеров также честно заслужила свой значок, поскольку архитектура CineFX предусматривает значительное увеличение числа используемых регистров.

Логическим продолжением архитектуры CineFX стали ее последующие версии - CineFX 2.0 (графическое ядро NV35 и NV36/38) и CineFX 3.0 (графическое ядро NV 40) - которые характеризуются скорее эволюционными, нежели революционными изменениями. Так, к примеру, в архитектуре CineFX 2.0 была вдвое повышена производительность блоков работы с числами с плавающей запятой, которые используются при исполнении пиксельных шейдеров.

Теперь рассмотрим технологию Intellisample HCT (High-resolution Compression Technology), сущнсть которой в полной мере отражена в ее названии: HCT - это совокупность алгоритмов компрессии текстур, буфера кадра и Z-буфера, позволяющих значительно увеличить производительность при работе в больших разрешениях. Так на официальном сайте NVIDIA указывается, что при работе с максимальными настройками качества изображения и разрешении 1600Ѕ1200 и выше производительность увеличивается до 50%. Поэтому вполне естественным кажется то, что в картах, позиционируемых компанией как mainstream-решения, то есть в картах нижнего middle-end-уровня, подобная технология отсутствует.

Технология UltraShadow — еще один способ снизить вычислительную нагрузку на графическое ядро. На этот раз хитрость заключается в том, что при расчете теней можно задавать граничные координаты, до и после которых построение теней выполняться не будет.

nView — это поддерживаемая ПО NVIDIA ForceWare технология, которая обеспечивает возможность многоэкранной работы. Подключив к видеокарте два монитора (сегодня это позволяют делать все построенные на перечисленных графических чипах видеокарты), пользователь получает возможность с помощью NVIDIA nView сконфигурировать вдвое большее виртуальное рабочее пространство. К примеру, имея один компьютер, можно на одном мониторе просматривать презентацию, а на другом — работать, предположим, с документом Word.

Все вышеописанные классификации и технологии относятся к чипам серии NVIDIA GeForce FX, а решения поколения GeForce 6 при этом оказались в стороне. И это не случайно: сегодня графические карты на графическом ядре NV40 - это топовое решение вне классификаций. Чипсеты на его основе сложно вписать в рамки, по которым ранжируют графику семейства GeForce FX, - это будет выглядеть так же нелепо, как попытка найти великану подобающее место в строю карликов. Ведь даже самый скромный из чипов GeForce 6 - GeForce 6800, позиционируемый в своем классе как решение для широкого круга пользователей (mainstream), по своим возможностям не идет ни в какое сравнение даже с самым производительным решением из серии GeForce FX. Поэтому отдельно остановимся на тех наработках и технологиях, которые специалисты компании NVIDIA реализовали в графическом ядре NV40.

При создании этого графического ядра нового поколения применялся как экстенсивный так и интенсивный подход. Первый нашел свое выражение в увеличении числа пиксельных конвейеров (хотя говорить о конвейере в привычном понимании здесь нельзя), которые теперь могут обрабатывать до 16 пикселов за такт. Количество вершинных конвейров было увеличено до 6. Качественные же изменения коснулись реализации поддержки пиксельных и вершинных шейдеров. В отношении графического ядра NV40 речь идет уже не о расширенных возможностях шейдеров в версии 2.0, а о полноценной реализации шейдеров версии 3.0, что подразумевает использование в вершинных и пиксельных программах-шейдерах динамических ветвлений и циклов. Данные нововведения свидетельствуют о том, что ядро NV40 построено на основе нового поколения архитектуры CineFX - CineFX 3.0, позволяющей добиться еще более реалистичного изображения, что стало очередным шагом на пути к реализации компьютерной графики кинематографического качества. В чипах серии GeForce 6 была усовершенствована и описанная выше технология UltraShadow, которая теперь носит название UltraShadow II. В ней, как и прежде, отрисовка теней происходит только в заданном диапазоне, но на этот раз скорость расчетов увеличилась, чему в не малой степени способствует тот факт, что при работе с Z-буфером и буфером шаблонов пиксельные конвейеры графического ядра NV40 способны удвоить скорость и обрабатывать не 16, а 32 пиксела за такт. Еще одним новшеством, с помощью которого повышается реалистичность компьютерного изображения, стала технология NVIDIA HPDR (High-Precision Dynamic Range). Применение данной технологии позволяет строить сцены с высоким динамическим диапазоном освещенности за счет реализации полноценной поддержки вычислений с плавающей запятой при выполнении операций фильтрации, текстурирования, смешения и сглаживания; при этом используется формат представления данных OpenEXR. И наконец, в графическом ядре NV40 реализован программируемый видеопроцессор, что позволило значительно снизить загрузку центрального процессора и улучшить качество при просмотре видео в форматах MPEG-1/2/4 и WMV9, а также HDTV. Это стало возможным благодаря реализации аппаратной поддержки кодирования и декодирования перечисленных форматов представления видеопотока.

В заключение несколько затянувшейся теоретической части стоит, пожалуй, рассказать о «генеалогическом древе» описываемых графических чипсетов, поскольку определение «родственных» связей позволит более точно позиционировать чипсет, опираясь на понимание их архитектуры и заложенных в них функциональных возможностей. Начнем с семейства GeForce FX.

Родоначальником GeForce FX можно считать графическое ядро NV30, которое легло в основу графических чипсетов GeForce FX 5800/5800 Ultra. Нельзя сказать, что это графическое ядро стало крупной удачей компании NVIDIA, основной причиной чему стало, наверное, не самое удачное решение в организации работы с видеопамятью - 128-битный контроллер, энергоемкая «горячая» память GDDR2, как следствие, дополнительные проблемы по организации ее охлаждения. Прямыми наследниками архитектуры NV30 стали графические ядра NV31 (GeForce 5600/5600 Ultra) и NV34 (GeForce 5200/5200 Ultra и GeForce 5500), которые, по сути, являются урезанными версиями NV30, хотя и имеют свои особенности, например возвращение к графической памяти GDDR.

Учтя недостатки первенца серии GeForce FX - графического ядра NV30 - по прошествию довольно небольшого времени компания NVIDIA выпустила на рынок новое поколение графических чипов GeForce 5900, построенных на основе нового топового графического ядра - NV35. При создании этого ядра был использован 256-битный контроллер видеопамяти, в качестве которой использовались модули GDDR. Пожалуй, можно даже говорить о том, что ревизии и доработке была подвергнута вся архитектура CineFX, легшая в основу создания графического ядра NV30, - теперь она стала именоваться CineFX 2.0. В чем заключаются эти изменения - уже было описано выше. Кроме того, в графическом ядре NV35 впервые была реализована технология UltraShadow, а усовершенствованные алгоритмы компрессии текстур, буфера кадра и Z-буфера были объединены под эгидой технологии Intellisample HCT (High-Resolution Compression Technology). Судьба чипсетов на ядре NV35 оказалась куда более удачной, нежели его предшественника - чипы GeForce FX 5900XT/5900/5900 Ultra, в основу которого легло именно это графическое ядро, и стали предметом нашего рассмотрения. Но венцом серии GeForce FX стало графическое ядро NV38 и основанный на нем чипсет GeForce FX 5950 Ultra. Хотя по своей сути это графическое ядро является разогнанной версией NV35, тем не менее и здесь не обошлось без инноваций. Так, была изменена конструкция системы охлаждения, а кроме того, чипы на графическом ядре NV38 имеют два режима работы - 2D и 3D, с автоматическим переключением между ними. Это позволяет снизить тепловыделение графического чипа, а также уменьшить скорость вращения (и соответственно снизить шум) вентилятора охлаждения графической карты, что становится возможным благодаря снижению тактовой частоты графического ядра при работе с нересурсоемкими 2D-графическими приложениями. Как и в случае с NV30, для охвата большего спектра рынка видеокарт компания NVIDIA выпустила и бюджетные решения, в основу которых были положены наработки, реализованные в графическом ядре NV35. На этот раз в роли младших братьев выступили графические чипы GeForce FX 5700/5700 Ultra (ядро NV36). Хотя в данном случае правильнее говорить о том, что NV36 - это все же упрощенный вариант ядра NV38, а не NV35. Основанием для подобного утверждения послужил тот факт, что, как и GeForce FX 5950 Ultra, графические чипы NVIDIA GeForce FX 5700/5700 Ultra имеют два режима работы - для 2D- и 3D-графики. При этом, как в случае с NV38, графическое ядро NV36 в 2D-режиме работает на частоте 300 МГц.

Говоря о появлении облегченных вариантов типовых моделей графических чипов с целью расширить спектр выпускаемых графических решений, нужно обратить внимание и еще на на один подход, широко применяемый сегодня ведущими производителями. Его суть сводится к тому, что на основе одного графического ядра выпускаются несколько вариантов чипов, различающихся лишь тактовой частотой работы ядра и видиопамяти. Обычно модельный ряд таких решений включает базовый чип и его «ускоренную» (Ultra) и «замедленную» (XT) версии.

О построении «родового дерева» семейства GeForce 6 говорить пока не приходится, хотя ядро NV40 уже дало первый побег - NV43. Это первое графическое ядро от NVIDIA, имеющее родной интерфейс PCI Express 16x. Хотя рассмотрение графики с этим интерфейсом выходит за рамки данного обзора, однако, коль скоро речь зашла о видеокартах с интерфейсом PCI Express, стоит сказать, что до появления графического ядра NV43 все ранее выпускаемые компанией NVIDIA чипсеты для этого интерфейса были всего лишь тандемом графического AGP-процессора и моста AGP-PCI Express. К примеру, под именем GeForce PCX 5750 скрывается хорошо знакомый нам чип GeForce FX 5700.

После пространных теоретических выкладок пришло время перейти к практической части нашего обзора. Мы попытаемся оценить возможности видеокарт, построенных на основе рассматриваемых графических чипсетов NVIDIA, при работе с современными ресурсоемкими приложениями. Для этой цели нами было проведено тестирование следующих видеокарт: WinFast A400 Ultra TDH (GeForce 6800 Ultra), WinFast A400 GT TDH (GeForce 6800 GT), Chaintech Apogee AA6800 и ASUS V9999GE (GeForce 6800), Gigabyte GV-N595U256GT (GeForce FX 5950 Ultra), ASUS V9950 Ultra (GeForce FX 5900 Ultra), Point of view FX-5900 (GeForce FX 5900), Point of view FX-5900XT (GeForce FX 5900XT), MSI FX5700 Ultra-TD128 (GeForce FX 5700 Ultra), MSI FX5700-TD128 (GeForce FX 5700), Point of view FX-5500 GeForce FX 5500) и Albatron PCX5750 (GeForce PCX 5750). Последняя из перечисленных видеокарт была взята для того, чтобы на практике оценить влияние смены интерфейса на производительность графического чипа (напомним, что, как указано выше, графический чипсет GeForce PCX 5750 представляет собой чип GeForce FX 5700, взаимодействующий с PCI Express-интерфейсом посредством дополнительного чипа-моста AGP-PCI Express 16x).

Основной упор при проведении тестирования делался на оценку производительности в современных 3D-играх, для чего были использованы тестовые сцены из таких популярных компьютерных игр, как FarCry, Tomb Raider: The Angel of Darkness, Unreal Tournament 2004, Serious Sam: Second Encounter и, конечно же, DOOM III. В качестве синтетических тестов, позволяющих определить производительность графических карт при работе с 3D- и 2D-приложениями, были использованы тестовые пакеты FutureMark 3DMark 2003 (build 340) и FutureMark PCMark 2004 соответственно. Кроме того, мы попытались оценить возможности тестируемых видеокарт при работе с профессиональными графическими OpenGL-приложениями (для чего воспользовались тестовой утилитой SPEC Viewperf 8.0.1), а также при работе с популярным пакетом Discreet 3d studio max 6.0 (тест SPECapc_3dsmax_rev1_1). Для проведения тестирования были собраны два стенда следующей конфигурации:

Для карт с AGP-интерфейсом:

Центральный процессор — Intel Pentium 4 3,4 ГГц,

Системная память — 2Ѕ512 DDR400 (PC3200),

Материнская плата — Intel D875PBZ,

Дисковая подсистема — 2ЅMaxtor MaXLine III (250 Гбайт), собранные в RAID-массив 0-го уровня;

Для карт с интерфейсом PCI Express 16x:

Процессор — Intel Pentium 4 550 (3,4 ГГц),

Память — 2Ѕ512 DDR2 533,

Материнская плата — Intel D925XCV,

Дисковая подсистема — 2ЅMaxtor MaXLine III (250 Гбайт), собранные в RAID-массив 0-го уровня.

Тестирование проводилось под управлением операционной системы Windows XP SP1 с установленной версией API DirectX 9.0с. Для обеспечения работы испытываемых видеокарт использовались видеодрайверы ForceWare 61.77. Внесем некоторую ясность относительно усиленногов тестировании внимания графических карт на чипах NVIDIA GeForce 6800. Дело в том, что модели Chaintech Apogee AA6800 и ASUS V9999GE изначально выполнены с несколько увеличенной тактовой частотой работы графического ядра и памяти. По этой причине мы решили и показать возможности как доработанных решений, и протестировать одну из этих карт в штатных частотах, определяемых спецификациями чипа GeForce 6800.

Полученные в ходе тестирования результаты не принесли никаких неожиданностей (табл. 3 и ): по уровню демонстрируемой производительности видеокарты расположились строго в соответствии с рангом графических чипов, лежащих в их основе. Отметим лишь три момента. Во-первых, при анализе результатов тестирования становится очевидным преимущество видеокарт, построенных на основе графического ядра NV40, над картами семейства GeForce FX, причем это преимущество нарастает при увеличении нагрузки на видеоподсистему (при увеличении разрешения и улучшении настроек качества изображения). Обращает на себя внимание и лучшее качество «картинки» новых чипов поколения GeForce 6. Так, к примеру, значительно улучшилось качество полноэкранного сглаживания за счет использования мультисэмплинга на повернутой решетке. Во-вторых, при просмотре результатов, показанных тестируемыми картами в таких чрезвычайно требовательных к ресурсам играх, как FarCry, Tomb Raider: The Angel of Darkness, DOOM III, становится ясно, что комфортную игру с приемлемыми настройками качества способны обеспечить лишь графические карты начиная от GeForce 5900 и выше. А по-настоящему насладиться красотами подобной 3D-графики позволяют только графические карты семейства NVIDIA GeForce 6 - естественно при наличии соответствующей им по производительности всей компьютерной системы в целом. И в-третьих, PCI Express-карты, несмотря на все достоинства этого интерфейса, в своем нынешнем виде не дают никаких преимуществ в сравнении с их AGP-аналогами.

Но если по поводу производительности современных видеокарт, построенных на графических чипах NVIDIA, все было известно заранее и общий порядок полученных результатов мог предсказать любой знакомый с предметом человек, то вопрос оптимальности покупки наверняка вызовет споры. Тем не менее выскажем свое мнение по этому поводу: оптимальным соотношением «качество/цена» с позиции обычного домашнего пользователя, на наш взгляд, обладают видеокарты на чипах NVIDIA GeForce FX 5900XT, ну а заядлым геймерам мы бы порекомендовали видеокарты на основе графики NVIDIA GeForce 6800GT.

) за видеокарты MSI FX5700 Ultra-TD128 и MSI FX5700-TD128;

  • компании R&K (www.r-andk.com) за видеокарты Point of view FX-5900, Point of view FX-5900XT и Point of view FX-5500.
  • Чипсет NVIDIA nForce 790i SLI
    Процессор LGA775 Pentium 4 FSB 1066/800/533 МГц
    Celeron Conroe/Prescott FSB 800/533 МГц
    Dual-Core Pentium4 Smithfield/Presler
    Yorkfield, Wolfdale FSB 1600/1333/1066/800 МГц
    Quad-Core Kentsfield, Dual-Core Conroe/Allendale
    HyperThreading
    Память DDR3 800/1066/1333
    HDD 1x UltraDMA/133(RAID)
    8x SerialATA II (2x RAID)
    Дополнительно Звук High Definition Audio
    10 USB 2.0
    2x Gigabit Ethernet LAN
    2х IEEE-1394
    Цена: ~$425 (Price.Ru)

    Чипсет NVIDIA nForce 790i SLI анонсирован довольно давно, однако первые продукты на его основе появляются только сейчас. Впрочем, сожалеть об этом не будем - одна из главных особенностей этого продукта заключается в поддержке памяти DDR3, которая стала относительно доступной (по цене) лишь несколько недель назад. Кстати, NVIDIA выпустила еще одну версию чипсета, под названием nForce 790i Ultra SLI. Причем единственное ее отличие от "не Ultra" заключается в поддержке более скоростных модулей памяти DDR3 и поддержке технологии EPP 2.0. Все остальные характеристики - совершенно одинаковые.

    Второй важной особенностью этих чипсетов является нативная поддержка шины PCI Express v2.0. Если чипсет nForce 780i SLI являлся переименованным nForce 680i SLI, в котором поддержка PCI-E v2.0 была реализована при помощи дополнительного моста nForce 200, то северный мост nForce 790i поддерживает то же самое количество линий, без дополнительных чипов. Всего этот чипсет поддерживает 62 (!) линии шины PCI Express, из которых 32 линии отвечают спецификациям v2.0. Такое количество позволяет разработчикам материнских плат установить на свои продукты три слота PCI Express x16 и обеспечить поддержку технологии 3-way SLI (т.е. объединение вычислительных ресурсов трех видеокарт NVIDIA).

    Что касается южного моста, то он не претерпел изменений. Это чип nForce 570i MCP, возможности расширения которого полностью отвечают современным требованиям.

    Итак, объектом сегодняшнего тестирования является материнская плата ASUS Striker II NSE на чипсете nForce 790i SLI. Этот продукт относится к довольно дорогой и эксклюзивной серии "Republic of Gamers" и предназначен для оверклокеров и компьютерных энтузиастов. Ориентация платы на эту группу пользователей выдает вотерблок, который установлен на северном мосту чипсета, а также богатая комплектация и мощные функции разгона (которые, как показало это тестирование, действительно работают, в отличие от Striker II Formula на nForce 780i SLI).

    Спецификация ASUS Striker II NSE

    Процессор - Intel Pentium 4 (Prescott (2M)/Gallatin/CedarMill) с частотой шины 1066/800/533 МГц
    - Двухъядерные Intel Pentium D/EE (Smithfield/Presler) с частотой шины 800/1066 МГц
    - Intel Celeron-D (Conroe-L, Prescott) с частотой шины 800/533 МГц
    - Поддержка Intel Core 2 Duo/Quad (Kentsfield (4 ядра), Conroe/Allendale (2 ядра)) с частотой шины 1333/1066/800 МГц
    - Поддержка Intel Yorkfield, Wolfdale с частотой шины 1600/1333/1066/800 МГц
    - Разъем Socket LGA775
    - Поддержка процессоров с технологией HyperThreading
    Чипсет - Северный мост nForce 790i SLI SPP
    - Южный мост nForce 570i SLI MCP
    - Связь между мостами: шина HyperTransport (1 ГГц)
    Системная память - Четыре 240-контактных слота для DDR-3 SDRAM DIMM
    - Максимальный объем памяти 8 Гб
    - Возможен двухканальный доступ к памяти
    - Поддерживается память типа DDR3 800/1066/1333
    - Индикаторы питания на плате
    Графика - Три слота PCI Express x16 (2х 16 v2.0 + 1х 16 v1.0)
    Возможности расширения - Два 32-х битных PCI Bus Master-слота
    - Два слота PCI Express x1
    - Десять портов USB 2.0 (6 встроенных + 4 дополнительных)
    - Два порта IEEE1394 (Firewire; 1 встроенный + 1 дополнительный)
    - Два сетевых контроллера Gigabit Ethernet
    Возможности для разгона - Изменение частоты FSB от 100 до 750 МГц; изменение множителя
    - Изменение напряжения на процессоре, памяти, FSB, PLL и чипсете(nb & sb)
    - Технология ASUS AI Overclocking
    - Утилита ASUS AI Booster
    Дисковая подсистема - Один канал UltraDMA133/100/66/33 Bus Master IDE (с поддержкой до 2 ATAPI-устройств & RAID 0, 1)
    - Поддержка протокола SerialATA II (6 каналов - nForce 570i SLI, c поддержкой RAID 0,1,5, 0+1 и JBOD)
    - Дополнительный SerialATA II/Raid-контроллер (микросхема JMB363, 2 канала SerialATA II, RAID)
    - Поддержка LS-120 / ZIP / ATAPI CD-ROM
    BIOS - 8 MBit Flash ROM
    - Award Phoenix BIOS с поддержкой Enhanced ACPI, DMI, Green, PnP Features и Trend Chip Away Virus
    - Технология ASUS EZ Flash 2
    - Технология ASUS CrashFree BIOS 2
    - Технология ASUS MyLogo 3
    - Технология ASUS OC Profile
    - Multi-languages BIOS
    Разное - Один порт для FDD, порт для PS/2 клавиатуры
    - Кнопки включения, перезагрузки и сброса настроек BIOS
    - IrDA
    - STR (Suspend to RAM)
    - SPDIF Out
    Управление питанием - Пробуждение от модема, мыши, клавиатуры, сети, таймера и USB
    - 24-контактный разъем питания ATX (ATX-PW)
    - Дополнительный 8-контактный разъем питания
    Мониторинг - Отслеживание температуры процессора, системы, чипсет (nb+sb), трех дополнительных термодатчиков, мониторинг напряжений, определение скорости вращения восьми вентиляторов
    - Технология ASUS Q-Fan 2
    - Технология ASUS AI Gear, AI Nap
    Размер - ATX форм-фактор, 244x305 мм (9,63" x 12")

    Коробка

    Плата упакована в довольно внушительную коробку со стильным дизайном:

    Коробка имеет ручку для переноски, а одна страница обложки раскрывается наподобие книги:

    Внутри пользователь обнаружит плату в прозрачном пластиковом боксе, а также еще одну коробку с аксессуарами:

    Комплектация

    • материнская плата;
    • DVD-диск с ПО и драйверами;
    • диск с игрой Company of Heroes: Opposing Fronts;
    • руководство пользователя на английском языке;
    • один ATA-133-шлейф, FDD-шлейф;
    • шесть SerialATA-кабелей + переходник питания (два разъема);
    • заглушка на заднюю панель корпуса;
    • планка с двумя портами USB 2.0 и одним портом Firewire;
    • SLI-коннектор, 3-way SLI-коннектор;
    • набор стяжек + набор резиновых подставок;
    • дополнительный вентилятор;
    • звуковая карта SupremeFX II;
    • набор дополнительных коннекторов Q-Connector;
    • наклейка с логотипом ASUS;
    • набор хомутов, переходников и соединительных трубок для СВО;
    • три внешних термодатчика;
    • LCD Poster.

    Комплектация платы Striker II NSE полностью соответствует уровню high-end-продукта. В частности, пользователю не придется искать в магазинах внешние термодатчики или набор для подключения системы водяного охлаждения: все это есть в комплекте. Единственное, что, возможно, придется купить, - это переходники питания для SerialATA-устройств (если у пользователя "старый" блок питания) и/или планку с парой портов USB 2.0 (если используется "старый" корпус).

    Начнем с документации. Книжка написана просто отлично; затронуты все аспекты сборки и настройки системы (включая иллюстрированное руководство подключения СВО).

    Кроме этого, к плате прилагается два DVD-диска. На первом можно найти набор фирменных утилит ASUS (PC Probe 2, AIBooster, Update, MyLogo 3 + набор заставок), а также все необходимые драйверы для Windows и Linyx. Кроме того, на диске записан пакет Norton Internet Security 2007 и Kaspersky Anti-Virus. Более того, на диске имеется лицензионная версия 3DMark 06 Advanced Edition (однако мы не нашли серийного номера для этого бенчмарка). На втором диске записана суперпопулярная стратегия Company of Heroes: Opposing Fronts.

    Далее - к плате прилагается шесть кабелей SerialATA, переходник питания с двумя разъемами, PATA- и FDD-шлейфы, заглушка на заднюю панель (которая способна защитить систему от статики), а также набор коннекторов Q-Connector.

    Следующими компонентами являются дополнительный вентилятор и планка с двумя портами USB 2.0 и портом Firewire.


    Для организации SLI-массива в комплектацию включены два коннектора: один гибкий, для соединения двух видеокарт, другой - жесткий, для трех карт соответственно.

    Кроме этого, есть набор стяжек, три внешних термодатчика и LCD-Poster. Последний представляет собой небольшой экран, который предназначен для вывода диагностических сообщений. Точно такой же экран был установлен на первом Striker. Причем он был жестко закреплен на задней панели, а наш LCD-Poster можно вывести в любое удобное место (до которого хватит кабеля).

    Если система собирается на коленке, то компьютерному энтузиасту могут потребоваться резиновые проставки под плату (9 шт).

    И, наконец, плата имеет звуковую подсистему, которая выполнена в виде отдельной платки SupremeFX II:

    Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter
    ПОДЕЛИТЬСЯ: