FAQ по видеокартам
Общее
Вопрос: Что такое видеокарта (видеоадаптер, видеоакселератор, графический ускоритель и т.д.)?
Ответ: Видеокарта является основным элементом видеоподсистемы любого более или менее производительного компьютера (за исключением самых дешевых офисных систем с интегрированным в чипсет видео).
К основным компонентам видеокарты относятся: графический процессор (с легкой руки NVIDIA, именуемый GPU - Graphic Processing Unit), от возможностей которого во многом зависит производительность всей видеоподсистемы, и видеопамять (служащая для хранения различных элементов выводимого изображения, включая графические примитивы, текстуры и прочее).
Вопрос: Что понимается под производительностью видеоподсистемы?
Ответ: Производительность видеоподсистемы определяет скорость обработки графической информации, выводимой на дисплей компьютера. По-настоящему объективных критериев оценки производительности видеокарт сегодня, к сожалению, не существует: и тесты, и многие игры, используемые для тестирования видеокарт, оптимизированы под видеочипы того или иного производителя и, тем самым, грешат некоторой тенденциозностью.
Вопрос: Видеокарты от какого производителя самые лучшие?
Ответ: В последние годы на рынке дискретных видеоадаптеров наблюдается двоевластие: конкурирующие друг с другом американская NVIDIA с модельным рядом видеокарт GeForce и ATI - канадское подразделение компании AMD (модельный ряд Radeon) не оставили остальным производителям места "под компьютерным солнцем". Кто лучший из первых двух? Сразу не Ответить. Ведь выходят все новые и новые поколения видеокарт NVIDIA и ATI, и ситуация на рынке меняется с калейдоскопической быстротой. Сегодня, например, в нише высокопроизводительных решений высшего уровня (пользующиеся популярностью в основном у различных компьютерных изданий), безусловно, лидирует NVIDIA с линейкой GeForce 8800, однако недавно пальма первенства принадлежала ATI Radeon 1950 и т.д. Что касается массовых продуктов, то видеокарты одного поколения от разных производителей примерно равны по возможностям, так что выбор решения от того или иного производителя определяется лишь предпочтениями пользователя.
Вопрос: Какой минимальный объем видеопамяти достаточен для работы с офисными приложениями?
Ответ: Как правило, в настоящее время видеокарты имеют память 128 Мб и более, чего вполне достаточно для комфортной работы с любыми офисными приложениями, а также для просмотра видео. Больший объем видеопамяти требуется лишь в 3D-играх, а также при работе с профессиональными графическими пакетами.
Вопрос: Какая видеокарта необходима для нормальной работы с Windows Vista?
Ответ: Для работы с Windows Vista достаточно иметь графическую карту или интегрированный чипсет с аппаратной поддержкой DirectX 9.0.
В минимальной конфигурации объем видеопамяти должен составлять 64 Мб (минимум), а более продвинутый уровень, позволяющий насладиться всеми прелестями трехмерного интерфейса (Aero Glass) подразумевает использование видеокарты с поддержкой Pixel Shader 2.0, а также от 128 Мб памяти и выше.
Дальнейшие перспективы работы под Windows Vista будут всё больше и больше связаны с DirectX 10.
Вопрос: Физические ускорители - что это?
Ответ: Физические ускорители (PPU - Physics Processing Unit) являются узкоспециализированными устройствами, дополняющими традиционную связку CPU-GPU и освобождающие их от обязанности обсчитывать физические эффекты в современных трехмерных компьютерных играх. "Первой ласточкой" процессоров нового типа стал PPU PhysX, разработанный компанией Ageia в 2005 году.
К настоящему времени физические ускорители не получили сколько-нибудь серьезного распространения. В первую очередь, потому, что появились не вовремя - в пору экспансии двухъядерных процессоров, одно из ядер которых в игровых приложениях может достаточно эффективно обсчитывать всю физику. Таким образом, использование PPU сегодня не имеет особого смысла.
Вопрос: Какие характеристики видеочипов оказывают влияние на их производительность?
Ответ: Важнейшими характеристиками любого современного графического процессора являются:
его тактовая частота - определяет максимальный объем работы, который процессор может выполнить в единицу времени. Чем больше тактовая частота GPU, тем выше производительность видеокарты;
количество блоков шейдеров (пиксельных или вершинных процессоров, выполняющих специальные программы) определяет возможности современных видеокарт по обработке графических примитивов и, тем самым, производительность видеокарты. Пиксельные шейдеры более актуальны, чем вершинные, поэтому зачастую количество первых в GPU превышает количество последних. Впрочем, разделение на пиксельные и вершинные шейдеры в последнее время, в связи с выходом DirectX 10, теряет актуальность. Все они заменяются едиными унифицированными шейдерными блоками, способными, в зависимости от конкретной ситуации, исполнять роль как пиксельных, так и вершинных шейдеров (а также и геометрических, которые появились в DirectX 10);
количество блоков текстурирования (TMU), определяющих текстурную производительность (скорость выборки и наложения текстур), особенно при использовании трилинейной и анизотропной фильтрации. Наибольшее значение блоки TMU имеют в относительно старых играх дошейдерной эпохи, хотя и сейчас они не потеряли актуальности;
количество блоков растеризации (ROP), осуществляющих операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как и в случае с блоками TMU, актуальность блоков ROP в период господства шейдерной архитектуры несколько снизилась.
Все приведенные выше характеристики видеочипов, безусловно, очень важны, однако было бы большой ошибкой оценивать современные GPU только числом разнообразных блоков и их частотой. Каждое очередное поколение современных GPU использует новую, порой, принципиально новую архитектуру, в которой исполнительные блоки и их взаимосвязи очень отличаются от старых, поэтому сравнивать GPU по количественным параметрам оправданно только в рамках одного поколения.
Вопрос: Для чего нужна видеопамять?
Ответ: Так как пропускной способности шины памяти в современных компьютерах катастрофически не хватает для обеспечения нормального функционирования высокопроизводительных видеокарт, то большинство из них оснащены собственной памятью, используемой для хранения необходимых в процессе работы данных: текстур, вершин, буферов и т.п. Исходя из этого, можно сделать вывод - чем больше у видеокарты объем памяти, тем больше ее производительность (как любят утверждать маркетологи). Но это не всегда верно!
Конечно, ситуации, когда больший объем памяти приводит к росту производительности в играх, существуют, но они достаточно редки и касаются в основном новейших, предельно требовательных к системным ресурсам игр, работающих в самых высоких разрешениях. А большинство массовых игр ограничивает аппетиты определенным объемом памяти, и превышение этого порога не приведет к увеличению производительности. Гораздо более важными параметрами видеопамяти являются ее производительность, то есть рабочая частота и ширина шины.
Вопрос: Что такое ширина шины памяти? И как она влияет на производительность видеокарты?
Ответ: Ширина шины памяти, наряду с тактовой частотой, является важнейшим параметром, определяющим производительность видеопамяти. Большая ширина позволяет передавать большее количество информации в единицу времени из видеопамяти в GPU и обратно, что, естественно, обеспечивает большую производительность видеокарты (при прочих равных условиях). В современных видеокартах ширина шины памяти составляет:
для бюджетных видеокарт - 64 или 128 бит;
для карт среднего уровня - 128 или 256 бит;
для самых дорогих High-End видеокарт - от 256 до 512 бит.
Вопрос: Что такое время доступа памяти?
Ответ: Время доступа памяти (измеряется в нс) - величина, обратно пропорциональная рабочей частоте видеопамяти. Чем меньше время доступа, тем больше максимальная рабочая частота памяти:
Рабочая частота (МГц) = (1000/время доступа) * 2
Таким образом, зная время доступа чипов памяти вашей видеокарты (которое указывается в маркировке чипа), всегда можно оценить с большой долей вероятности максимальную частоту, на которой память будет нормально работать. Это знание особенно важно, если вы планируете разгонять видеокарту. Кроме этого, на время доступа памяти следует обращать внимание и при покупке новой видеокарты (особенно - начального и среднего уровней), ведь некоторые недобросовестные производители достаточно часто идут на снижение себестоимости продукции именно за счет установки медленной памяти.
Вопрос: Какие бывают типы видеопамяти?
Ответ: На видеокарты устанавливается видеопамять различных типов. Старая SDR-память практически нигде не встречается, да и сменившая ее DDR (с удвоенной относительно SDR производительностью) если и встречается, так только в самых дешевых бюджетных решениях. В массовых видеокартах наиболее распространена видеопамять типа DDR2 (и ее несколько улучшенный вариант GDDR3), пропускная способность которой удвоена по сравнению с DDR. Наиболее производительные видеокарты комплектуются видеопамятью GDDR4, которая помимо того, что работает в два раза быстрее, чем GDDR3, отличается пониженным напряжением питания, и, следовательно, уменьшенным энергопотреблением.
Вопрос: Что такое выделенная, и что такое выделяемая видеопамять?
Ответ: Память на видеокартах может быть как выделенной, так и выделяемой. Выделенная память означает, что видеопамять реализуется путем размещения на карте нескольких микросхем памяти. Все современные видеокарты, претендующие на сколько-нибудь сносную производительность, оснащаются выделенной памятью, хотя это и повышает их физические размеры, тепловыделение и, разумеется, цену. Видеокарты с выделяемой видеопамятью не имеют собственных чипов памяти, а, по мере необходимости, задействуют часть общесистемной памяти. Выделяемая память обычно не позволяет получить высокую производительность видеосистемы и используется в основном, в интегрированных и недорогих мобильных решениях, где вопросы экономичности выходят на первый план.
В последнее время в дешевых бюджетных видеокартах обрел популярность третий тип организации видеопамяти - гибридный, использующий возможности быстрого двунаправленного обмена по шине PCI Express. В таких видеокартах есть небольшой объем собственной видеопамяти, используемый для традиционных 2D-операций, а также для организации буфера RAMDAC. Когда этого объема недостаточно (в основном при запуске 3D-приложений), видеосистема добавляет к нему некоторый объем оперативной памяти. Когда отпадает потребность в дополнительной памяти, она высвобождается для общесистемных нужд. В видеокартах ATI такая память обозначается как HyperMemory, а в видеокартах NVIDIA - TurboCache. Скорость работы таких видеокарт, конечно, гораздо ниже, чем у классических систем с выделенной видеопамятью, однако гораздо выше, чем у тормозных решений с выделяемой памятью.
Вопрос: Что представляют собой системы аппаратного ускорения видео?
Ответ: Системы аппаратного ускорения видео AMD Avivo и NVIDIA PureVideo HD осуществляют аппаратную декомпрессию HD-видеофайлов (30 кадров в секунду с разрешением 1920 x 1080), закодированных в H.264/AVC. Это позволяет существенно снизить требования к производительности центрального процессора и, тем самым, обеспечить плавное воспроизведение HD. Кроме того, обе технологии позволяют несколько улучшить качество картинки HD (впрочем, как и DVD) за счет подавления шума, сглаживания границ объектов и наложения различных фильтров.
Вопрос: Что такое HDCP?
Ответ: HDCP (High-bandwidth Digital Content Protection - протокол защиты широкополосных цифровых данных) является одним из вариантов системы управления правами доступа к цифровым данным (DRM). HDCP разработан совместными усилиями компаний Intel и Silicon Image для управления доступом к аудио- и видеоданным высокой четкости (в основном, фильмов, распространяемых на носителях HD DVD и Blu-Ray DVD), и передаваемым по интерфейсам DVI и HDMI и призван не допустить их передачу в незашифрованном виде. Поддержка HDCP сегодня является обязательным условием соОтветствия любого устройства (в том числе видеокарт и мониторов) марке "HD Ready".
Интерфейсы видеокарт
Вопрос: Какие типы интерфейсов существуют для видеокарт?
Ответ: Стандартным интерфейсом для подключения видеокарт в настоящее время является шина PCI-Express 1.1 (PCIe или PCI-E). Последовательная передача данных в режиме "точка-точка", примененная в PCI-E, обеспечивает возможность ее масштабирования (в спецификациях описываются реализации PCI-Express 1x, 2x, 4x, 8x, 16x и 32x). Как правило, в качестве видеоинтерфейса используется вариант PCI-E 16x, обеспечивающий пропускную способность 4 Гб/с в каждом направлении, хотя изредка встречаются реализации PCI-E 8x (в основном в усеченных SLI- или CrossFire-решениях) и даже PCI-E 4x (в частности, так называемый PCI-Express Lite, реализованный на некоторых материнских платах ECS). При этом следует отметить, что во всех случаях, для установки видеокарт используется единый слот PCI-E 16x, а в усеченных версиях к нему подводится меньшее количество линий PCI-E.
В ближайшей перспективе ожидается массовое внедрение новой спецификации PCI-Express 2.0 с увеличенной вдвое пропускной способностью (что в случае PCI-E 16x дает 8 Гб/с в каждом направлении). При этом PCIe 2.0 совместим с PCIe 1.1, то есть старые видеокарты будут нормально работать в новых системных платах, появление которых ожидается уже в 2007 году. Кроме того, спецификация PCI-Express 2.0 расширяет возможности энергоснабжения до 300 Вт на видеокарту, для чего на видеокартах вводится новый 2 x 4-штырьковый разъем питания.
Устаревший, но еще широко используемый видеоинтерфейс AGP (Accelerated Graphics Port - видео порт с повышенной скоростью передачи данных), основан на параллельной 32-битной шине PCI. В отличие от прототипа, она предоставляет прямую связь между центральным процессором и видеочипом, а также более высокую тактовую частоту (66 МГц вместо 32 МГц), упрощенные протоколы передачи данных и другие.
Существует несколько вариантов шины AGP, отличающихся по пропускной способности:
AGP 1х - 266 Мб/с;
AGP 2х - 533 Мб/с;
AGP 4х -1,07 Гб/с;
AGP 8х - 2,1 Гб/с.
Понятно, что чем выше пропускная способность графического интерфейса, тем лучше. Но в настоящее время разница в пропускной способности интерфейсов AGP и PCI-E 1.1 (не говоря о PCI-E 2.0) если и влияет на производительность видеосистемы, то не слишком, так что главное преимущество PCI-Express не в его высокой производительности, а в возможности масштабирования, позволяющей устанавливать в компьютер две, три и даже четыре видеокарты.
Вопрос: Какое питание видеокарты получают по видеоинтерфейсу?
Ответ: По стандарту AGP, потребляемый ток видеосистемы может достигать до 6 А по напряжению 3,3 В, до 2 А по 5 В и до 1 А по напряжению 12 В. Несложно подсчитать, что в итоге мы имеем до 42 Вт отдаваемой мощности. Более современный стандарт PCI-Express обеспечивает гораздо большую мощность питания: по шине питания 3,3 В потребляемый ток видеосистемы может достигать 3 А и до 5,5 А по 12 В, то есть всего до 76 Вт отдаваемой видеокарте мощности. Однако некоторым современным видеокартам и этого мало, поэтому на них могут устанавливаться один или два дополнительных 6-контактных разъема PCI-Express, каждый из которых способен обеспечить ток до 6 А по шине 12 В - всего до 72 или 144 Вт дополнительной мощности. Таким образом, интерфейс PCI-Express 1.1 способен обеспечить питание видеокарт, потребляющих до 220 Вт электроэнергии.
Вопрос: Что такое SLI?
Ответ: SLI (Scalable Link Interface - масштабируемый объединительный интерфейс) - программно-аппаратная технология NVIDIA, обеспечивающая установку и совместную работу двух видеокарт в режиме Multi-GPU Rendering. Нагрузка между ними распределяется динамически, что позволяет значительно увеличить производительность видеосистемы и получить высокое качество отображения трехмерной графики.
Для нормальной работы видеокарт в SLI-режиме, необходима материнская плата (пока только на чипсетах NVIDIA) с двумя графическими слотами, допускающими установку видеокарт с интерфейсом PCI-Express (NVIDIA GeForce 6x00 и более новых, причем обе видеокарты должны быть построены на одинаковых GPU). Для обмена информацией между ними, чаще всего используется специальный SLI- коннектор, хотя в отдельных случаях возможна связь через интерфейс PCI-E.
Во многих случаях использование SLI дает увеличение производительности 3D-приложений, хотя радикальное увеличение наблюдается в основном в играх, специально оптимизированных под эту технологию.
Вопрос: Что такое CrossFire?
Ответ: CrossFire является ответом компании ATI на инновацию NVIDIA SLI и также позволяет использовать две видеокарты для увеличения производительности видеосистемы.
Подробнее о технологии CrossFire можно прочитать в статье "ATI CrossFire: "перекрестный огонь" с двух платформ".
Вопрос: Какие внешние разъемы бывают на видеокартах?
Ответ: Для подключения внешних видеоустройств на видеокартах, могут использоваться аналоговые интерфейсы VGA, RCA, S-Video и цифровые - DVI и HDMI.
До последнего времени основным интерфейсом для вывода изображения на ЭЛТ и ЖК-мониторы являлся аналоговый VGA-выход (15-контактный разъем D-Sub);
аналоговый разъем S-Video (или S-VHS) применяется в основном для вывода компьютерного изображения на бытовые телевизоры и другую домашнюю видеотехнику. Существенным недостатком этого интерфейса является то, что в современных видеокартах могут использоваться несколько вариантов разъема S-Video, с разным количеством контактов и не всегда совместимых друг с другом;
современные ЖК-мониторы, проекторы, телевизоры и плазменные панели могут подключаться к видеокартам по цифровому видеоинтерфейсу DVI (Digital Visual Interface). За счет того, что видеосигнал передается напрямую с видеокарты без двойного цифро/аналогового преобразования, DVI обеспечивает неискаженную передачу изображения, особенно заметную в высоких разрешениях. Интерфейс DVI может быть как исключительно цифровой DVI-D, так и комбинированный DVI-I, в котором наряду с цифровыми линиями имеются и аналоговые (VGA). Монитор с аналоговым VGA-разъемом подключается к DVI-I через специальный переходник;
разновидностью DVI является интерфейс Dual-Link DVI, обеспечивающий поддержку высокого разрешения (выше 1920 х 1200) по цифровому выходу DVI. Физически Dual-Link DVI является объединением двух отдельных каналов DVI в одном кабеле, что удваивает его пропускную способность;
мультимедийный интерфейс HDMI (High Definition Multimedia Interface) присутствует в некоторых новых видеокартах, телевизорах и других домашних мультимедийных устройствах. Главная особенность HDMI - возможность передавать по одному кабелю на расстояние до 10 м наряду с цифровым видеосигналом еще и аудио без потери качества. Благодаря этому количество соединительных проводов (настоящий бич современных мультимедийных систем) существенно уменьшается.
Драйверы видеокарт
Вопрос: Какой драйвер для видеокарты лучше использовать?
Ответ: Все видеокарты, включая даже самые скудные OEM-комплектации, имеют компакт-диск с драйверами. Однако пользоваться этими драйверами не рекомендуется - практически все они устаревших (порой, сильно устаревших) версий. Такая картина и с драйверами, которые можно найти на сайте производителя видеокарты - за редким исключением там имеются устаревшие версии референсных драйверов от производителя видеочипа (это не касается видеокарт в ноутбуках, которые обычно поддерживают только собственные драйвера от производителя ноутбука). Таким образом, остается один путь получения последних версий драйвера для вашей видеокарты - скачать референсный драйвер непосредственно от производителя GPU - AMD Catalyst или NVIDIA Detonator/ForceWare. В большинстве случаев, это будет лучшим выбором, особенно, если достаточно новая видеокарта. Если важна стабильность системы, а не пара лишних "попугаев" в бенчмарках, желательно использовать драйвер последней финальной версии, а не бета. Кроме того, он должен иметь сертификат WHQL (Windows Hardware Quality Lab), который получают программные продукты, протестированные в специальной лаборатории Microsoft на предмет их совместимости с операционными системами Windows. Если возраст видеокарты достаточно солидный, и вы не игрок, то есть не особо нужен весь спектр ее 3D-функций, тогда вполне достаточно драйвера, установленного операционной системой.
Вопрос: Что такое альтернативные драйверы?
Ответ: Альтернативные (или оптимизированные) драйверы для видеокарт на чипах AMD и NVIDIA (Omega, DNA, NGO), созданы независимыми разработчиками на базе референсных драйверов и, по их мнению, обеспечивают большую производительность, чем оригинальные. Но в большинстве случаев, выгоды от использования альтернативных драйверов нет - прирост производительности если и есть, то незначительный, зато проблем может появиться предостаточно. Широкое использование не до конца отлаженных бета-версий референсных драйверов, а также некоторых недокументированных настроек видеокарты зачастую приводит к появлению артефактов изображения, а также к общей нестабильности системы. Так что пользоваться альтернативными драйверами рекомендуется исключительно любителям приключений определенного рода.
Вопрос: Как правильно установить драйвер?
Ответ: Перед установкой драйвера видеокарты, прежде всего, следует убедиться, что, во-первых, предыдущие версии драйвера удалены из системы и, во-вторых, установлены свежие версии различных сервисных пакетов (Service Pack 2 для Windows XP, DirectX, пакеты драйверов Intel Chipset Software Installation Utility, NVIDIA Drivers или VIA Hyperion Pro для материнских плат на чипсетах Intel, NVIDIA или VIA, соответственно). После этого следует обновить (через систему Windows Update) все апдейты системы безопасности и совместимости, и лишь затем можно приступать к установке драйвера видеокарты. Практически все современные драйверы являются самоустанавливающимися, поэтому проблем с их установкой не возникает даже у начинающих - следует лишь правильно отвечать на задаваемые вопросы. После установки драйверов следует перезагрузить компьютер, после чего процедуру установки драйверов можно считать законченной.
Вопрос: Как корректно удалить старый драйвер?
Ответ: Корректное удаление драйвера видеокарты подразумевает полную очистку системы от любых его следов, что стандартному апплету Windows "Установка и удаление программ" не под силу. Ручная чистка реестра Windows очень трудоемкая и чревата опасностью безвозвратной гибели системы. Поэтому наилучшим выходом для начинающих будет использование специализированных утилит, специально разработанных для максимально корректного удаления драйверов из системы. Например, бесплатной программой Driver Cleaner Professional Edition.
Разгон видеокарт
Вопрос: Что такое разгон видеокарт?
Ответ: Под разгоном (оверклокингом - от англ. overclocking) видеокарт подразумевается их работа на повышенной частоте, что является одним из наиболее эффективных способов увеличения производительности видеосистемы компьютера, особо заметного в современных компьютерных играх. Разгон, зачастую, позволяет сэкономить весьма существенные суммы, приподнимая (если, конечно, повезет приобрести удачный экземпляр) производительность младших моделей современных видеокарт на ступеньку-другую по их иерархической лестнице.
Вопрос: Стоит ли заниматься разгоном?
Ответ: Попробовать разогнать видеокарту стоит, если видеокарта относится к числу младших или средних моделей в линейке. В этом случае можно получить прирост производительности от 10 (разгон - всегда лотерея!) до 50 (если очень повезет) процентов. Теоретически, идеальным вариантом для разгона являются всевозможные оверклокерские сэмплы, выпускаемые ведущими производителями. Однако чрезмерно завышенная цена таких видеокарт и минимум риска (а значит, и удовольствия) при разгоне, превращает эти продукты в тривиальные игрушки для "богатеньких буратин".
Разгон видеокарты не целесообразен в случае, если:
-у вас noname-карта. Чаще всего такие карты комплектуются самыми дешевыми, подчас, низкокачественными элементами и чрезвычайно медленной памятью. Такие поделки и на штатных частотах работают с проблемами, что уж говорить о разгоне;
-у вас флагманская модель линейки, пусть даже и весьма уважаемого производителя. В этом случае, мы имеем другую крайность - все компоненты карты, без сомнения, самого высокого качества, однако они изначально работают на режимах, близких к предельным;
-Ваша видеокарта представляет собой урезанный вариант нормальной видеокарты (например, с уменьшенной со 128 бит до 64 бит шириной шины памяти). Хотя такие предельно упрощенные и относительно дешевые решения встречаются у многих, даже весьма приличных, производителей, помните, что издеваться над инвалидами - грешно.
Также нет смысла заниматься разгоном видеокарты, если система не сбалансирована (слабый процессор или недостаточный объем оперативной памяти) или не оптимизирована (устаревшие или неправильно настроенные драйверы, а также множество работающих в фоновом режиме приложений способны затормозить все, что угодно).
Вопрос: Опасен ли разгон для видеокарты?
Ответ: Так как разгон видеокарты - это превышение ее паспортных возможностей, то, чисто теоретически, имеется определенная вероятность выхода видеокарты из строя. Но все зависит от уровня квалификации оверклокера - при грамотных действиях риск этого печального события мал, а при безграмотных - практически гарантирован. Наибольшая вероятность выхода видеокарты из строя - вследствие недостаточного охлаждения как самого GPU, так и видеопамяти, которые могут сгореть при длительном перегреве. Еще одна проблема, которой любят пугать начинающих оверклокеров, - сокращение срока службы разогнанной видеокарты. Это верно - срок службы любой микросхемы напрямую зависит от ее рабочей температуры. Считается, что превышение нормальной рабочей температуры на каждые десять градусов сокращают жизнь микросхемы вдвое. Страшно? Не очень. Ведь срок жизни микросхем измеряется десятилетиями, так что видеокарта, даже при сильном разгоне, морально устареет (и будет заменена) гораздо быстрее, чем погибнет от непосильных трудов.
Вопрос: Как улучшить охлаждение видеокарты?
Ответ: Проблема охлаждения видеокарты является комплексной и напрямую связана с проблемой охлаждения всего компьютера. И действительно, какой смысл устанавливать на видеокарту самую лучшую систему охлаждения, если общекомпьютерная система охлаждения не справляется со своими задачами? Ведь в этом случае даже самый сверхнавороченный кулер будет гонять горячий воздух. Так что решать проблему охлаждения следует с организации эффективного отвода тепла из корпуса компьютера, и лишь после этого переходить к охлаждению собственно видеокарты.
Самым дешевым и, тем самым, распространенным способом охлаждения видеокарт является воздушный кулер - активный (с вентилятором) или пассивный (без оного). Большинство серьезных производителей оборудуют продукцию вполне добротными кулерами, возможностей которых хватает для обеспечения нормального функционирования видеокарт на штатных частотах и, чаще всего, спокойно выдерживающие небольшой разгон. А многие производители второго эшелона (и ниже) пытаются сэкономить на системе охлаждения. Так, зачастую они устанавливают в качестве теплопроводного интерфейса между графическим чипом и радиатором вместо нормальной термопасты непонятную "терможвачку" (прокладку, фольгу и прочее), единственное достоинство которых - дешевизна. Все это следует удалить, тщательно очистить (и, по возможности, отполировать) подошву радиатора и нанести качественную термопасту, например, отечественную КПТ - 8 или АлСил. На некоторых видеокартах также отсутствует охлаждение чипов памяти. Если вы собираетесь разгонять такую карту - обязательно озаботьтесь их охлаждением. Для этого подойдут готовые комплекты радиаторов, которые не трудно найти в продаже, а также их можно изготовить самостоятельно.
Если вы замыслили серьезный разгон - то вам следует подумать о водяном охлаждении, пусть достаточно дорогом, но эффективность которого будет гораздо выше, чем от любого воздушного кулера. А экзотику типа фреона или жидкого азота лучше оставить фанатичным оверклокерам - экстрималам.
Вопрос: Что такое синхронные и асинхронные частоты?
Ответ: Чип и память видеокарты могут работать как на одинаковых частотах (быть синхронными), так и на разных (работать в асинхронном режиме), что нельзя не учитывать при разгоне. Наиболее эффективна работа связки GPU-видеопамять именно в синхронном режиме, когда неизбежные задержки на синхронизацию этих устройств сведены к минимуму. Однако синхронный режим работы выгоден только тогда, когда частоты видеопроцессора и памяти не слишком отличаются друг от друга (не более чем на 5%). В противном случае, асинхронный режим предпочтительней, так как прирост производительности за счет более высокой рабочей частоты одного из компонентов с лихвой перекрывает издержки на их синхронизацию.
Вопрос: Чем и как разгонять видеокарту?
Ответ: Разгон видеокарты (впрочем, как и разгон) - дело достаточно серьезное, в случае неудачи чреватое большими неприятностями, и поэтому, особенно если у вас нет опыта в этом деле, не стоит спешить и гнаться за высокими результатами. Для разгона видеокарт AMD/ATI можно воспользоваться небольшой утилитой ATITool, видеокарт NVIDIA - RivaTuner. Практически любую видеокарту можно разогнать с помощью универсальной утилиты PowerStrip - все эти программы имеют специальные закладки, где тем или иным способом можно задавать рабочие частоты видеочипа и памяти. Разгонять лучше постепенно, поднимая частоты и чипа, и памяти небольшими шажками по 10-50 МГц. После каждого такого шага следует проверять работоспособность системы в тяжелых 3D-приложениях. Для этого лучше подойдет один из бенчмарков из серии 3DMark, сгодится и любимая 3D-игра с максимальными настройками качества. Выгода от использования бенчмарков в том, что вместе с проверкой стабильности видеосистемы вы сразу можете объективно оценить степень прироста ее производительности. Во втором случае вы сочетаете приятное с полезным. При первых шагах в разгоне достаточно быстрой проверки (запустил тест - работает - идем дальше), тогда как на последних стадиях следует гонять тесты в течение длительного времени.
В процессе разгона видеокарты компьютер может зависнуть, что с вероятностью 99% свидетельствует о том, что GPU видеокарты переразогнан. Откатитесь на один шаг назад, когда система еще сохраняла стабильность, и в дальнейшем продолжайте повышать частоты только памяти. В случае появления на тестовом изображении различных артефактов (снег, полосы, выпадение текстур и прочее) система сигнализирует, что возможности видеопамяти подошли к пределу. Здесь, как и в предыдущем случае, стоит вернуться на шаг назад и дальше гнать только видеопроцессор. Кстати, не следует забывать, что разгон достаточно современных GPU несколько затруднен из-за наличия в них нескольких блоков, работающих на разных частотах. Поэтому в таких видеокартах вместо установки единой частоты GPU следует оперировать несколькими частотами одновременно.
Таким образом, мы достигнем каких-то максимальных частот, на которых и GPU, и память еще работают достаточно стабильно. На этом этапе следует еще раз убедиться в стабильной работе системы, а для полной гарантии стабильности стоит отъехать на один шаг - те же 10-50 МГц - на итоговой производительности системы это практически не скажется, а спокойствия (особенно в первое время) заметно прибавится. Кроме того, следует проверить эффективность системы охлаждения видеокарты. Если GPU не имеет термодатчика, то можно прикоснуться к радиатору рукой - если палец выдерживает в течение достаточно долгого времени, то все в порядке. В противном случае, следует позаботиться о дополнительном охлаждении.
Вопрос: Как определить производительность видеокарты?
Ответ: Определить величину прироста производительности в играх после разгона, на глаз обычно бывает затруднительно. Можно воспользоваться одним из тестовых пакетов (тот же 3DMark), однако большинство из них определяет производительность видеокарты в абстрактных "попугаях", которые вполне годятся для оценки прироста производительности при разгоне, а сравнить достижения с друзьями может не получиться - у каждого, в зависимости от используемого бенчмарка, будут свои "попугаи". Конечно, многие популярные игры (Quake, Unreal Tournament, Serious Sam и некоторые другие) имеют возможность измерения количества кадров, однако вполне вероятно, что именно они могут не входить в круг ваших интересов. В таком случае стоит обратить внимание на утилиту Fraps, которая способна не только подсчитывать частоту кадров в любой запущенной игре, но и индицировать эту информацию в одном из углов экрана.
Автор: Виктор Куц