Играем в компьютерные игры. К вопросу о компьютерном "железе"

Появление двух долго ожидаемых хитов мира 3D-игр от первого лица, а именно Half-Life-2 и Doom-3, наравне с другими неожиданными сюрпризами года вроде The Chronicles of Riddic и Far Cry заставило многих из нас снова пойти в магазин за новыми видеокартами, процессорами и оперативной памятью. Меня в последнее время очень часто спрашивают в форумах о том, какую видеокарту предпочесть и что настроить в компьютере для того, чтобы добиться максимально возможного быстродействия той или иной из игр. Надеюсь, данная серия статей поможет вам сориентироваться в этом вопросе. Свое повествование я начну с вопросов, связанных с апгрейдом компьютера. Появившиеся игры поставили новую планку требований к его быстродействию, и отделаться чисто программными оптимизациями большинству пользователей, к сожалению, не удастся. Хотим мы того или нет, но в магазин идти нам таки придется.

Процессор и оперативная память

Тут все просто: чем процессор быстрее, тем лучше. Вместе с тем не стоит и особенно увлекаться погоней за мегагерцами. Не забывайте о том, что микропроцессор — отнюдь не единственная деталь, лимитирующая производительность вашего компьютера. Насколько я могу судить по собственным тестам и материалам в Интернет, для обеих игр вполне достаточно Athlon XP с результирующей частотой около 1800 МГц или Pentium 4 с частотой 2800 МГц. Безусловно, Athlon-64 3800+ более предпочтителен для обеих игр, чем, скажем, Athlon XP 2000+. Вопрос заключается в том, а стоит ли тот прирост в 5-10 fps, который вы получите, поменяв процессор, выложенных за него денег? Вы можете без труда найти в Интернет подробные отчеты о тестировании процессоров, опровергающие это мое смелое заключение. На красиво нарисованных графиках вам наглядно покажут, что использование процессора "A" в игрушке "X" увеличивает ее быстродействие чуть ли не в два раза по сравнению с быстродействием той же игры, но запущенной на микропроцессоре "B". Выглядят эти материалы вполне убедительно до тех пор, пока вы не начнете внимательно изучать саму прилагающуюся к этому графику статью. А в статье, как правило, написано нечто вроде: "...для исключения влияния видеокарты мы использовали режим 640x480". Такой подход к тестированию применяется с незапамятных времен и одобрен всеми "знатными собаководами" в области тестирования компьютерного железа в Интернет. Но позвольте, мы-то с вами не хотим исключать влияние видеокарты! Нам с вами не процессор тестировать надо, а удовольствие от игры получить хочется. Поэтому в лучших традициях парадоксальной логики современности влияние процессора мы с вами будем смотреть… в статьях о тестировании видеокарт. А тут-то и вылезает то самое интересное правило, о котором я вам сейчас рассказываю. Сюжет большинства современных игр построен так, что за время их прохождения попеременно "напрягается" то процессор, то видеокарта. Замена только процессора к особому приросту не приведет. На подавляющем большинстве "народных" видеокарт что в Doom3, что в Half-Life различие между разными процессорами внутри одной линейки не столь уж и велико. Более того, по мере увеличения частоты процессора прирост fps с каждым шагом становится все меньше и меньше. Большинство авторов тестов склоняются к тому, что это объясняется недостатком мощности используемых ими микропроцессоров. У меня складывается смутное впечатление, что производительность компьютера в игре ограничивает что-то еще помимо быстродействия центрального процессора и видеокарты, и именно влияние этого самого "чего-то еще" и меряют авторы большинства тестов. Лично я грешу на быстродействие оперативной памяти. Все обсуждаемые игры очень любят оперативную память и, само собой, широко ее используют, к примеру, для загрузки текстур в локальную память видеокарты. Похоже, узким местом в этом процессе и становится как раз пропускная способность оперативной памяти.

Если же сравнивать между собой различные модели микропроцессоров, то вперед вырываются системы на Athlon-64 и Pentium 4. Именно Pentium 4, а не Celeron: как говорят в Одессе, это две большие разницы. Контроллер оперативной памяти в Athlon-64 встроен в сам микропроцессор. Системы на микропроцессорах Pentium 4 работают с оперативной памятью быстрее систем на процессорах Athlon XP изначально. Возможно, именно скоростью контроллеров памяти обеих систем и объясняется их преимущество в современных играх, а сами вычислительные способности тех или иных микропроцессоров тут совершенно ни при чем. Вместе с тем, преимущество систем на новых микропроцессорах не настолько велико для того, чтобы из-за него затевать апгрейд вашего домашнего компьютера. Поэтому, если ваш Athlon XP способен преодолеть границу в 1800 МГц, просто разгоните его и не особенно задумывайтесь о его замене на более производительную модель. Выигрыш в несколько fps этого отнюдь не стоит. Ту сумму денег, которую вам сейчас хочется потратить на покупку нового микропроцессора, лучше потратьте на покупку большого количества быстрой оперативной памяти. Пользы от этого вы получите значительно больше, чем даже от покупки новой видеокарты или нового процессора. Все обсуждаемые нами компьютерные игры обладают просто немеряным аппетитом в отношении оперативной памяти. В том случае, если в вашей системе ее имеется менее 512 мегабайт, вы обречены на постоянные "подтормаживания" игрового процесса. Играй мы с вами в какую-либо ролевую игру или там стратегию, это не имело бы существенного значения. Но в "шутерах" ощущение подтяжек, постоянно цепляющихся за все острые углы в игре, быстро сводит на нет все удовольствие от разворачивающегося на экране действия. Поэтому я рекомендую не портить себе впечатление от игр — не забывайте: ведь в любую игру в первый раз мы играм лишь однажды. Доведите объем оперативной памяти в вашем компьютере как минимум до 512 Мб, а еще лучше — до одного гигабайта, и только потом приступайте к погружению в виртуальные миры. Если в вашей системе установлено 512 Мб оперативной памяти, игры большую часть времени идут вполне плавно. Тем не менее, время от времени вас все-таки будет притормаживать на месте процесс подкачки данных с жесткого диска. Происходит этот эффект, как правило, в тот момент, когда в кадре перед вами появляются какие-либо новые объекты. Типичным примером такой ситуации является, например, первый выстрел из оружия, открытие двери в новое помещение или появление перед вами нового противника. Если вы с этим готовы мириться, то можете не наращивать объем установленной в вашем компьютере оперативной памяти. В общем и целом при таком объеме оперативки игрушки идут неплохо. Если же вас это не устраивает, копите деньги и идите в магазин.

Следующий шаг, позволяющий серьезно улучшить ситуацию с "тормозами" в игре, — это увеличение объема памяти до 768 Мб. Столь странное число вы получите, если к уже имеющимся у вас 512 Мб памяти докупите еще одну планку объемом 256 Мб. Этот вариант я рекомендую экономным пользователям, умеющим грамотно настраивать свою систему. В принципе, такого количества памяти вполне достаточно для комфортной игры при соблюдении одного условия. Вам необходимо навести порядок в своей операционной системе: остановить ненужные сервисы, выгрузить всевозможные программы, оккупирующие у всех нас "панельку рядом с часиками", отключить темы Windows XP и вообще по возможности минимизировать использование операционной системой столь драгоценного нынче ресурса, как оперативная память. Наиболее оптимальным вариантом решения этой проблемы является установка специальной копии операционной системы, изначально адаптированной для компьютерных игр. О том, как создать такую версию из имеющегося у вас дистрибутива Windows XP, мы с вами поговорим в следующий раз, а пока давайте закончим разбираться с необходимым для игр количеством оперативной памяти. Итак, 768 Мб — это минимум, необходимый для комфортной игры в современные компьютерные игры, при условии, что вы являетесь "продвинутым" пользователем компьютера. Если вы себя к таковым не относите, но, тем не менее, хотите насладиться играми в полной мере, переходите к следующему абзацу.
Идеальный на сегодняшний день объем оперативной памяти для компьютерных игр — это 1 гигабайт. Лишние 256 мегабайт памяти, добавившиеся по сравнению с предыдущим вариантом, позволят вам не оптимизировать операционную систему. Все и так будет бегать достаточно ровно и гладко. Впрочем, если вы установите в своей системе, скажем, 2 гигабайта, то хуже от этого не станет — памяти много никогда не бывает. Хотя и пользы от такого большого объема памяти будет не так уж много. А вот денег на это вы потратите немало. Нужно ли это вам? Смотрите сами — я к вам в кошелек не заглядываю.

Видеокарта
Игра Doom3 изначально была сделана таким образом, чтобы обеспечивать значительно лучшее быстродействие на видеокартах производства фирмы NVIDIA, чем на картах производства фирмы ATI. По поводу причин такого поведения игрушки на диспутах в форумах Интернет было поломано немало копий. Владельцы карт NVIDIA, разумеется, утверждали, что это объясняется достоинствами их любимых карт. Владельцы карт ATI возражали, что дело заключается в банальной "заточке" игры под видеокарты того, кто дал больше денег разработчику. В такой приятной перебранке посетители форумов проводили время вплоть до выхода игры Half-Life-2, которая помирила спорщиков. На этот раз ситуация с быстродействием игры на картах разных производителей была точно такой же, только обратной по знаку. Карты производства NVIDIA работали в ней мало того что существенно медленнее карт ATI, так еще и показывали ощутимо худшую по качеству картинку. Фанаты карт ATI торжествовали, фанаты карт NVIDIA метали громы и молнии. Ситуация сложилась совершенно комичная, но от души посмеяться над ней нам как пользователям компьютеров мешает один факт. Получается, что для того, чтобы полноценно играть в обе игры, нам придется покупать две разные видеокарты. Для игры в Doom3 карту производства NVIDIA, а для игры в Half-Life-2 — карту производства ATI. В данный момент всеобщее замешательство и назревающий скандал, как могут, стараются погасить оба производителя видеокарт. Обе компании на скорую руку выпускают новые драйверы, в которых предпринимаются попытки сгладить это внезапно возникшее деление компьютерных игроков по признаку используемого видеоакселератора. Начиная с версии Catalyst 4.12 у ATI и линейки драйверов 70.xx у NVIDIA видеокарты обоих производителей начинают показывать вполне сносное быстродействие не только в "своих", но и во "вражеских" играх. Фирма ATI в этом плане преуспела больше: ее карты в данный момент могут похвастать не только приличной скоростью, но и хорошим качеством картинки в Doom3. Преимущество скорости, показываемое на данный момент времени картами NVIDIA, в основном определяется одним-единственным фактором. Этим фактором является способность карт данного производителя быстрее обсчитывать динамические тени. Карты ATI такой возможностью похвастать не могут, и поэтому в большинстве тестов сильно отстают от своего конкурента.

Качество реализации теней в Doom3 — это тема для отдельного большого разговора. То ли авторы игры пытались нагнать на игрока с их помощью больше страха, то ли возможности современного компьютерного железа недостаточны для реализации их задумок, я вам точно сказать не могу. Тем не менее, в процессе прохождения игры мне пришлось их полностью отключить. Причиной для этого волевого решения было отнюдь не низкое быстродействие используемой мной компьютерной системы. Черные непрозрачные "одеяла" теней, отбрасываемые изображаемыми на экране объектами, вопреки всем законам здравого смысла просто мешали мне получать хоть какое-то удовольствие от игры. В качестве простого примера сошлюсь на то, что в Doom3 густую черную тень запросто может отбрасывать совершенно не освещенный каким-либо источником света объект. Стоит, скажем, в темном углу еле видимый стул, свет от ламп на него не падает, а вот тень от него отбрасывается густая и длинная, за счет чего находящееся за этим стулом вообще не разглядеть. Именно наличие в игре обилия подобных непрозрачных теней и породило огромное количество модификаций, так или иначе добавляющих в эту чрезмерно темную игру освещенности. Помимо чрезмерной темноты из-за непрозрачных теней, игра страдает и самой неверной реализацией освещения, созданного дизайнерами уровней. В процессе прохождения игры я очень часто сталкивался с ситуацией, когда тень отбрасывалась объектами вопреки всем элементарным законам оптики. Решив разобраться с этим феноменом, я запустил встроенный в игру редактор этажей и немедленно получил ответ на заданный себе вопрос. Дело в том, что лампы, нарисованные в помещениях марсианской базы, вовсе не являются источниками света в игре. Как выяснилось, эти лампы — просто ни к чему не обязывающий разработчиков уровня рисунок. Реальные же источники света невидимы и чаще всего по своему расположению не совпадают с нарисованными лампами. Разумеется, тень отбрасывается со стороны реальных источников света, а не нарисованных "ламп", что и приводит к парадоксальной порой схеме освещенности. Чем дальше я продвигался по ходу игры, тем больше нарастало мое раздражение, дополнительно подпитываемое тем, что практически с 90% вероятностью в очередной "неправильной" тени обязательно сидел монстр или лежало что-либо вкусное. Когда мое раздражение достигло апогея, я взял и отключил тени консольной командой. Наградой мне стали не только изрядно посветлевший без всяких "фонариков" игровой мир, но и… прибавка быстродействия примерно на 25 процентов. Эта прибавка позволила мне "бесплатно" переключить разрешение экрана с режима 1024x768 в режим 1280x1024, что, как вы понимаете, куда приятнее для глаза, чем хаотически расположенные черные полотнища прямоугольных теней. Да, я вам совсем забыл сказать: "мягкие" тени авторы Doom3 тоже реализовывать не стали, поэтому граница любой тени имеет явно выраженную четкую прямоугольную форму, что отнюдь не прибавляет им естественности. Вернувшись к теме моей статьи, подведу небольшой итог. Если вы подобно мне самому откажетесь от теней в Doom3, то этим окончательно устраните преимущество карт NVIDIA перед картами ATI и сможете играть примерно с той же скоростью, что и на картах этого извечного их конкурента.

С картами NVIDIA в Half-Life-2 дело обстоит еще более сложно и неоднозначно. "Заточки", использованные авторами игры, оказались более стойкими к попыткам программистов NVIDIA как-то их обойти. Поэтому, если вы "счастливый" обладатель видеокарт линейки NVIDIA GeForce FX, вам придется ограничиться игрой с использованием режимов Direct-X версии 8.0. Это означает отсутствие прибоя у моря, отражения облаков в воде и менее детальное отображение лиц персонажей и объектов в игре. Чаще всего негативные впечатления от качества графики в этой игре у владельцев карт данной серии и объясняются названным обстоятельством. Как-то во время диспута на форуме сайта www.overclockers.ru я выложил четыре скриншота (копии экрана), сделанных последовательно под DX 7.0, DX 8.0, DX 8.1 и DX 9.0. Затем попросил участников, особо негативно отзывавшихся о графике в игре, сказать, какой из них больше всего похож на то, что они видят перед собой на экране. Несколько человек тут же "кивнули" на скриншот DX 8.0, и среди них, к моему изумлению, оказался владелец NVIDIA GeForce-6800GT. Что характерно, сама игра везде, где это возможно, рапортовала ему о том, что используется режим DX 9.0, только вот дело в том, что спутать разные скриншоты между собой практически невозможно. Так что, к моему прискорбию, я был вынужден констатировать, что в игру он играл все равно в режиме DX 8.0 несмотря на кучу денег, выложенных за свою видеокарту. Разумеется, фирма NVIDIA не оставляет попыток как-то обойти эту ситуацию — существует патч, позволяющий принудительно включать правильное (а правильное ли?) отображение воды для карт из линейки FX. К сожалению, достигается это ценой существенного уменьшения быстродействия игры. Также краем уха я слышал о том, что NVIDIA переписала сами шейдеры игры, для того чтобы добиться большей ее скорости на своих картах, но такой подход кажется мне сомнительным. Кто знает, что именно было "оптимизировано" в игре для того, чтобы добиться этого эффекта? Как ни крути, карты от ATI являются более предпочтительным выбором для Half-Life. Тем не менее, советовать вам их покупать я не могу по причине еще одного фактора, опять-таки, далекого от области параметров компьютерных систем. На этот раз в игру вступает цена.

Свой Radeon 9800 Pro я покупал в декабре прошлого года почти сразу же после выхода Half-Life 2. Уже тогда эта модель карт практически исчезла с прилавков магазинов как наиболее выгодное с точки зрения "цена/скорость" решение. В данный момент времени купить в магазинах Санкт-Петербурга эту карту за разумные деньги практически нереально. В продаже имеются либо урезанные варианты, имеющие 128-битную шину, либо варианты с 256 мегабайтами памяти DDR2, имеющие заоблачную цену в районе 300 долларов (я свою карту брал в декабре за 210). Других решений, столь выгодных к покупке, ATI пока не предлагает. Карты из разряда Radeon 9600XT хоть и вполне сносно ведут себя в обеих играх, но своей стоимости примерно в 150 долларов явно не оправдывают. Более слабые карты не обеспечивают достаточного быстродействия. С другой стороны шкалы — карты из линейки X800, которые, хоть и являются фаворитами гонки быстродействия в обеих играх, тем не менее, и стоят заоблачных денег. Получается, что ATI допустила очень крупный прокол, оставив своих приверженцев без карт среднего ценового уровня, обладающих приемлемым быстродействием в современных играх. Почему так получилось, читайте в следующем абзаце.

Вскользь о PCI-Express
Если вы регулярно захаживаете в компьютерные магазины, то наверняка обратили внимание на одну странность, произошедшую с рынком видеокарт незадолго до Нового года. Оба конкурирующих производителя, словно сговорившись, выбросили на рынок целую пачку своих новых видеоакселераторов. Каждый из них предоставил полный спектр решений: в линейках имелись как дешевые чипы, так и сравнительно дорогие. Как покупатели мы могли бы только приветствовать эту инициативу, если бы не одно "но". Все эти карты обладали новым разъемом подключения к материнской плате компьютера, не подходящим ни к одной из тех материнских плат, что имеются у всех нас в наличии. Называется этот новый разъем PCI-Express. С точки зрения тактико-технических данных шина PCI-Express, безусловно, является более перспективной, чем шина AGP. В ближайшем обозримом будущем, скорее всего, она заменит собой не только AGP, но и обычную шину PCI. Другой вопрос, что необходимости в ее введении таким резким путем нет совершенно никакой. Производители карт вяло отбивались от возмущенной публики рассказами о передовой технологии, для введения которой как раз настал подходящий момент. Пользователи компьютеров на эти объяснения не ведутся, хорошо помня о том, что скорость, обеспечиваемая уже имеющейся шиной AGP-8x, и то была избыточна для современных видеоакселераторов. Один раз их уже на эту шутку купили, второй раз не получится. Дополнительной ложкой дегтя в мед, охотно расточаемый разработчиками стандарта, является еще и то, что стандарт еще окончательно не устоялся. Где-то в районе середины 2006 года нас ждет очередная его ревизия, дополнительно увеличивающая скорость шины. Я, конечно, хорошо понимаю настоятельное желание производителей компьютерного оборудования заставить меня регулярно ходить в магазин за новинками. Тем не менее, мне хотелось бы это делать лишь тогда, когда они предложат мне что-либо действительно стоящее внимания, а не очередной мыльный пузырь громких пресс-релизов.

Сам по себе PCI-Express не дает никаких преимуществ современным системам и является скорее долговременной инвестицией. В результате попытки его принудительного введения покупателям на ровном месте был фактически поставлен ультиматум: "хотите новую видеокарту — покупайте новую материнскую плату". Ситуация была настолько узнаваемой, что я ничуть не удивился, обнаружив, что подходящие под новые видеокарты материнские платы выпускаются сейчас всего лишь одним из ведущих производителей чипсетов и, само собой разумеется, только под свои собственные микропроцессоры. Если вспомнить присущую его продукции чехарду с процессорными разъемами, а порой даже и корпусами с блоками питания, то становится совершенно понятно, откуда и куда в этой ситуации с новым стандартом дует ветер. Дополнительно наводило на мысль об искусственности сложившейся ситуации и само время введения нового стандарта: как известно, на рождественские праздники люди любят делать себе и своим близким подарки. Подобная "услужливость" производителей видеокарт могла серьезно ударить по количеству продаж процессоров конкурентов того самого пресловутого производителя. По всей видимости, эта мысль пришла в голову не только мне одному, и попытка в мгновение ока перевести всех пользователей компьютеров на "правильную" платформу провалилась. Соблазнить покупателя новыми картами не удалось, и их производителям срочно пришлось давать "задний ход", в спешном порядке переводя свои новые уже готовые графические чипы с "перспективного" PCI-E обратно на "устаревший" стандарт шины AGP-8x. Продавать-то и NVIDIA, и ATI что-то нужно? Дополнительную комичность ситуации придает тот факт, что на старом добром AGP-8x новые графические чипы, как вскоре выяснилось, работают быстрее, чем на новомодном PCI-Express. И это при том, что функционируют они там с помощью специальной микросхемы — так называемого моста, адаптирующего две разные шины. Подобный мост уж всяко никак не прибавляет скорости такому решению, тем не менее, результат налицо. Разумеется, объясняется это не столько достоинствами самой шины AGP, сколько "сыростью" новой платформы, но сама ситуация довольно забавна и показательна. Как вскоре выяснилось, "задняя передача" у двух конкурирующих производителей работает с разной скоростью. Фирма NVIDIA довольно быстро смогла выпустить на рынок свои акселераторы среднего уровня из линейки GeForce-6600. Фирма ATI же, слишком серьезно, по всей видимости, заигравшаяся с новым стандартом PCI-E, в результате серьезно сдала позиции перед своим извечным конкурентом. Их маркетологи наверняка уже искусали себе и друг другу все локти. Благодаря наличию нескольких новых интересных игр пользователь морально готов к апгрейду видеоподсистемы своего компьютера, а вот ATI предложить ему сейчас совершенно ничего не может.

Единственной картой, способной на равных соревноваться с новинками среднего звена от NVIDIA, является в данный момент времени их бывший флагман Radeon 9800 Pro(XT). Но с ним связана одна серьезная проблема: это бывшая "топовая", и поэтому довольно дорогая карта. Карты же NVIDIA изначально задумывались как решения среднего уровня, поэтому и стоят соответственно своему предназначению. Покупатель, зашедший сегодня в магазин, имеет возможность выбирать между ATI Radeon 9800Pro, стоящей около 250 долларов, и NVIDIA GeForce-6600GT, стоящей всего лишь около 200 долларов. Производительность в реальных играх эти карты показывают примерно одинаковую, а в тестах карта от NVIDIA показывает даже лучшие результаты, так что выбор покупателя практически предопределен. От полного разгрома ATI спасает лишь тот факт, что карты NVIDIA еще не очень распространены. Так, у нас в Санкт-Петербурге купить GF6600GT можно всего лишь в двух магазинах города, да и то они там бывают не всегда. Разумеется, NVIDIA не могла упустить столь благоприятной ситуации на рынке и сейчас в спешном порядке "доклевывает" своего извечного соперника. В продаже уже появилась заторможенная по частотам версия GeForce-6600GT, носящая название GeForce-6600. Эта карта, стоящая всего лишь около 150 долларов, в умелых руках без труда разгоняется практически до частот обычной GF6600GT и выходит на ее уровень производительности. Постепенно дешевеют и заторможенные версии более мощных чипов NVIDIA из линейки GeForce-6800. Младшие их варианты уже практически сравнялись в стоимости с Radeon 9800 Pro, что делает покупку последнего совершенно бессмысленным занятием. Если GeForce-6600GT, по сути, более упрощенная по сравнению с Radeon 9800 Pro карта (по своим тактико-техническим данным она очень похожа на сильно разогнанный Radeon 9800SE), то GeForce 6800 — это уже значительный шаг вперед. Вопрос, а нужна ли ее мощность при условии наличия ограничений скорости, накладываемых на всю систему микропроцессором и оперативной памятью, оставим пока открытым. Новых Radeon 9800 Pro, насколько я помню, ATI не выпускает. Те остатки, что имеются в наличии на складах ее партнеров, распродаются сейчас по завышенной цене и вряд ли когда-либо подешевеют. Единственная надежда — на вторичный рынок, но нынешние владельцы Radeon 9800Pro также вряд ли с ним задешево расстанутся. Им просто не на что его обменять, так как он обеспечивает в современных играх вполне приемлемый fps, сравнимый с результатами широко рекламируемых новинок. Так зачем менять "шило на мыло"? Вот подешевеют до приемлемого уровня карты на GF6800, тогда, возможно, на вторичном рынке и появится большое количество Radeon 9800Pro — сейчас же для этого нет никаких предпосылок.

Подводя итог этой затянувшейся главе, скажу, что, если вы сейчас задумываетесь об апгрейде видеокарты, то лежит вам дорога в стан владельцев карт NVIDIA. Смотрите в сторону карт линейки GeForce-6600 или GeForce-6800 и выбирайте то, что вам по вкусу или по карману. Рано или поздно NVIDIA проблему с отображением графики в Half-Life разрешит — уже сейчас ее карты показывают в этой игре высокую скорость и достаточно приличную картинку. Если же вы, как и я сам, успели вовремя обзавестись картой Radeon 9800Pro, не расстраивайтесь. На данную единицу времени он, пожалуй, является оптимальным выбором (разумеется, если он у вас уже есть, а не только сейчас вы задумываетесь о его покупке). Во все времена "топовая" карта одной линейки видеокарт на равных конкурировала с картами среднего звена следующей за ней линейки и примерно соответствовала по скорости карте начального уровня через две линейки от себя. Так GeForce2-Pro работала немногим медленнее GeForce4-MX440. Так Radeon 8500 работал быстрее Radeon 9000 Pro. История повторяется и с Radeon 9800 Pro. Он находится примерно на том же уровне, что и карты среднего звена современной линейки карт как NVIDIA (уровня карт 6600), так и ATI (уровня карт X700) и по своему быстродействию, и по качеству показываемой картинки. Дополнительно в плюсы ему можно записать то, что карта эта выпускается давно, все шероховатости в ее работе уже давно отполированы производителем, а новинкам еще только предстоит свистопляска с очередными драйверами, исправляющими одну ошибку и вносящими две других. Любимым аргументом владельцев Radeon 9800 в диспутах со сторонниками новых решений является фраза, бьющая их оппонентов наповал. Звучит она так: "Мы уже давным-давно отыграли в Doom3. В декабре прошли Half-Life, успели пройти Riddick и Far Cry. Во все эти игры мы отыграли с приличной скоростью и качеством. А что на это скажете вы?" Для того чтобы наверстать упущенное в афере с PCI-E, фирме ATI придется совершить чудо. Вот на это "чудо" мы с вами и обменяем наши Radeon 9800 Pro, а пока мы еще вполне "сидим на коне" и даже местами можем "помахать шашкой". Опять-таки, в течение ближайшего года все равно предстоит менять материнские платы. На подходе процессоры Athlon-64 под Socket-939 на новом степпинге E, приносящем улучшенный частотный потенциал и поддержку SSE3. Уже появились в продаже материнские платы на чипсете NForce-4 с поддержкой новомодной шины PCI-E (на тот случай, если карты AGP окончательно пропадут из продажи, во что мне лично верится с трудом). Некоторое время "новинки" будут обладать повышенной стоимостью, а потом наверняка подешевеют. Вот это смутное время мы и пересидим на уже имеющихся у нас процессорах Athlon-XP Barton и видеокартах Radeon 9800 pro. А потом еще раз посмотрим, какой расклад сложится на рынке видеоакселераторов уже тогда.

Герман Иванов


Компьютерная газета. Статья была опубликована в номере 06 за 2005 год в рубрике hard :: pc

©1997-2024 Компьютерная газета