- Преимущества и недостатки двух разных видеокарт на одном компьютере
- Требования к системе с двумя видеокартами
- Преимущества
- Недостатки
- Кто должен установить две видеокарты?
- Начало Эры Multi-GPU видеокарт или когда две головы лучше одной
- реклама
- реклама
- реклама
- реклама
- Есть ли практическая польза от двух видеокарт в играх
- Дальнейшее развитие параллельного соединения GPU
- Как установить две видеокарты на ПК
- Выводы и умозаключения
Преимущества и недостатки двух разных видеокарт на одном компьютере
Установка двух или более видеокарт, работающих совместно, обеспечивает улучшенную производительность видео, 3D и игр по сравнению с одной видеокартой. Как AMD, так и Nvidia предлагают решения для работы с двумя или более видеокартами, но чтобы решить, стоит ли принимать это решение, нужно рассмотреть требования и преимущества.
Требования к системе с двумя видеокартами
Преимущества
Недостатки
Большим недостатком двух видеокарт в одном компьютере является стоимость. Поскольку топовые видеокарты уже стоят 500 долларов и более, многим потребителям трудно позволить себе вторую. Хотя ATI и Nvidia предлагают более дешевые карты с поддержкой двух карт, зачастую лучше потратить одинаковое количество денег на одну карту с одинаковой или иногда лучшей производительностью, чем на две недорогие.
Другая проблема заключается в том, что не все игры выигрывают от нескольких видеокарт. Эта ситуация значительно улучшилась с тех пор, как были представлены первые настройки с двумя картами, но некоторые графические движки по-прежнему плохо справляются с двумя видеокартами. Фактически, некоторые игры могут показывать небольшое снижение производительности по сравнению с одной видеокартой. В некоторых случаях происходит поддергивание, из-за которого изображение видео выглядит прерывистым.
Современные видеокарты очень энергоемки. Наличие двух из них в системе может почти удвоить количество потраченой эллектроэнергии, необходимое для их запуска в тандеме. Например, для правильной работы одной видеокарты высокого класса может потребоваться блок питания на 500 Вт. Наличие двух таких же карт может потребовать около 850 Вт. Большинство настольных компьютеров не оснащены такими мощными блоками питания. Обратитесь к мощности вашего компьютера и требованиям, прежде чем покупать более мощное оборудование.
Преимущества производительности в среде с двумя картами зависят от других компонентов компьютерной системы. Даже с двумя графическими картами самого высокого класса процессор нижнего уровня может регулировать объем данных, которые система может предоставить графическим картам. В результате двойные видеокарты обычно рекомендуются только в высокопроизводительных системах.
Кто должен установить две видеокарты?
Для среднего потребителя запуск двух видеокарт не имеет особого смысла. Общие затраты на материнскую плату и видеокарты, не говоря уже о других основных аппаратных средствах, которые необходимы для обеспечения достаточной скорости графики, являются непомерно высокими. Однако это решение имеет смысл, если вы хотите запускать игры на нескольких дисплеях или в экстремальных разрешениях.
Начало Эры Multi-GPU видеокарт или когда две головы лучше одной
реклама
Кто ответит на вопрос «Почему?» Возможно, индийские программисты устали писать код, а возможно коронавирус этому помешал, а может производители игр не хотят заниматься дальнейшей поддержкой этой технологии? Сплошные вопросы, не так ли? Но, наш клуб с экспертами-комментаторами, я уверен, прольет свет и ответит на эти и другие вопросы.
А пока сходим в техническую библиотеку отдела Nvidia. Где-то лет 20 назад, почитаемая компания номер 1 в 3D графике приказала долго жить. И Nvidia купила ее, а заодно все её наработки и патенты. Олдфаги, догадались, что речь идет о 3DFx. 3DFx была первой компанией, которая дала миру SLi!
реклама
Одна вторая «Вуду» тянула лишь 800 на 600. Вот, тогда польза от второй видеокарты была как раз осязаема, реальна нужна. А что сейчас делать с парой RTX 3090? Хороший такой вопрос, но оставим его без ответа, на совесть владельцам RTX 3090, я думаю они появятся в обсуждении и всё нам расскажут. Я пока сижу на встройке и о RTX 3090 могу лишь мечтать, как и 99% всех, кто сюда забрел.
Итак, Nvidia купила 3DFx и получила доступ к технологии SLi. Я рассказываю по-простому, на самом деле технология построения изображения у обоих компаний в корне отличались, но для обывателя они называются одинаково и в обоих случаях обе видеокарты соединяются физически с помощью гибкого мостика, шлейфа или перепаянного куска кабеля от «флоппика». И после этого в недрах самой «зеленой» компании родился «План Б» по захвату всего рынка 3D ускорителей. Пока ATI сидела и курила нервно в сторонке, гибкие мостики окутывали умы инженеров Nvidia и маркетологов. И вот тот день настал!
реклама
А если к этому добавить смену molex коннекторов на специальные 6-pin коннекторы для видеокарт, то и на все 100%. В то время изможденные геймеры, со старыми блоками питания, бродили по компьютерным рынкам в поисках переходников molex-6pin. Тогда еще не было AliExpress и засилья китайским мастеров. Я сам ждал свой коннектор для новой видеокарты 3 дня!
реклама
Местные предприниматели его вытащили из коробки и видимо потом перепродали. В общем, проблем стало у всех как минимум на одну больше. А все из-за 3Dfx, которая протянула неожиданно ноги. Хитрые игроделы, получив допинг от известной компании сразу же заявили, что их игры будут работать быстрее в 2 раза, главное — это купить эту лицензионную игру и вторую видеокарту.
Любители помериться попугаями в тестовых бенчмарках тоже побежали покупать вторую видеокарту, ведь нужно больше золота, очков в итоговом окошке теста. В общем, как ни крути, но вторую видеокарту каждый порядочный энтузиаст был обязан купить. В то время, я был в Швеции и собственноручно видел, как сметали с прилавков магазинов новенькие 6600GT и 6800GT. Сейчас можно вспомнить аналогию очередей за Iphon’ами, хотя это скучно, ведь зачем покупать второй «Айфон»? Звонить самому себе? Я лучше побеседую с Siri.
В день анонса было разбито несколько тысяч бутылок шампанского и детских мечт. Обзорщики плакали и рыдали, ведь им посчастливилось прикоснуться к святому Граалю, квинтэссенции бытия 3D и просто хорошей видеокарте с двумя GPU на борту. Но был, как всегда, один нюанс. О котором не сочли нужным все рассказать и те пользователи, которые купили эту видеокарту, потом остались без ногтей.
Они из загрызли их до дыр. А все потому, что это волшебная видеокарта могла работать только на паре моделей материнских плат Gigabyte. Опять горе и слезы. Но главное ведь продать, а пользователи сами потом разберутся. Естественно, в мануале все было написано, но наши люди сначала делают, а потом читают. Я и сам так иногда делаю, чего скрывать.
В общем все обзорщики похвалили инициативу Gigabyte, пожали руки и разошлись, захватив с собою шампанское. А Pr-отдел гигабайта не сидел сложа руки, в недрах секретной лаборатории кипела работа над двойной 6800 GT! Черт побери, это даже круче чем сейчас одна RTX3090. И они это сделали! Так появилась Gigabyte 3D1 6800GT Dual. Это по истине царская карта взгляните сами.
За эту карту не грех и почку было в то время отдать. Внешний респектабельный вид, радиатор в позолоте, уникальный дизайн и голубой текстолит, все говорило, что к хозяину такой карты без стука лучше не подходить. Если вы проникните в его жилище чтобы хотя бы одним глазком посмотреть на этот шедевр инженерной мысли, если он вас сам не убьёт, то вас точно загрызет его собака. Поэтому нужно сначала стучаться.
Для более простых энтузиастов или младших братьев обладателей Gigabyte 3D1 6800GT Dual, компания Gigabyte выпустила младшую модель на базе двух GPU 6600 без суффикса GT. Ну а что, всё правильно, каждому брату по видеокарте. Называлась такая видеокарта Gigabyte 3D1 XL 6600 Dual.
Алло Асус? Срочно зайдите в ординаторскую, пациенту плохо! У него неизлечимая SLi-зависимость и срочно нужно видеокарто-вмешательство. Да вы не ослышались, чтобы было делать реальным пацанам с мамками не от Gigabyte? Не менять же свой топ и не изменять своему любимому бренду! А таких было много, головные боли не могли излечить даже в Pr-отделах многих компаний. Но, как всегда, нашлись спасители, кошельков и душ страждущих.
Размеры этого монстра приводили всех в шок, таких видеокарт тогда еще не видел никто! Все были в шоке, даже отец одного школьника, которого развели на эту «дуру». Мало того, что она не вмещалась в системный блок, так и старенький блок питания уходил в защиту и ни при каких обстоятельствах не выходил из неё. Пришлось покупать новый корпус и блок питания, ну а что делать, обратного пути уже не было. В комплекте к видеокарте шел специальный SLI переключатель, который позволял этой видеокарте работать, где пожелает её повелитель.
Темный кожух, приставка Extreme, на коробке сам Посейдон или Зевс, ну что еще нужно? Правильно – вторую такую! Но пока еще производители не решили эту проблему, поэтому такая видеокарта стояла в системнике в гордом одиночестве.
Сейчас сюда могут набежать многочисленные Павлики и Кириллы комментаторы, и вставить жестко свои 5 копеек, но я вам отвечу, коли SLi тогда не пробовали, не стоит и сейчас на форуме размазывать. Едем дальше. Прогресс набирал обороты, Nvidia выкатила 7000-ю серию видеокарт. Как же все обрадовались, я помню салюты возле дома. Даже один бомж спросил: «Вадим, а что за праздник?». Я говорю – Володя, это геймеры радуются. Владимир Сергеевич тогда не понял, кто такие эти геймеры, он грязно выругался и полез обратно в коробку из-под холодильника. Вот так у нас встретили новую линейку видеокарт.
В качестве ядерного реактора выступал внешний блок питания видеокарты. Инженеры из ASUS пожалели бедных отцов геймеров, теперь их старые блоки питания не боялись работать в системе с такой видеокартой. Но теперь страх был у мамы. А причем тут мать? Да при том, что чадо требовало купить эту видеокарту, а в ASUS посчитали, что только 2000 геймеров смогут ее получить, так-как она вышла в серии Limited Edition. В Pr-отделе ASUS придумали новую маркетинговую стратегию, которая в последствии еще не раз всем нам аукнется.
Итак, все матери геймеров, сплотились в одну организацию противодействия секте Liminte Edition, но ничего не вышло. Демократия она такая.
Пока они ходили с транспарантами, пара мамаш подсуетилась и купила своим 20-ти летним сыночкам сразу по паре видеокарт. Зачем? А затем, что эти две видеокарты можно было объединять в SLi, хотя соединительного мостика они не имели! Вот сюрприз, так сюрприз, а ведь многие этого и не знали. Хотя за полтос данную инфу продавали бабки в одном переулке.
Когда геймеры видели такой скриншот, они прятались под стол. Ведь такого вообще быть не могло. Но теперь даже вы знаете, что это возможно! Это и есть та магия Voodoo 😉
А результаты от игры в FEAR могли и вовсе сделать не подготовленного геймера очень нервным человеком, я сам даже боюсь смотреть на эти цифры после полуночи, а ведь тогда было еще страшнее.
Кто захочет испытать страх, сможет эту табличку и другие такие найти на THG.ru А потом все проснулись и выключили телевизор. Утром следующего дня Мир был уже не таким, как раньше. В Nvidia подумали, а почему они ходят в магазин, а сливки со сметаной все время достаются соседскому коту? Ну вы поняли, речь идет о своей прибыли. Почесав за ухом и щёлкнув пальцами, на свет была произведена по истине первая реальная DUAL-GPU видеокарт NVIDIA 7900 GX2 от самой основательницы.
Это миф или реальность? Никто не мог понять, что это за такое изделие, похоже на слоеный бутерброд. Это видеокарта – ответила маленькая девочка, ложа в свою сумочку такую же вторую. Да, теперь официально такие видеокарты поддерживали QUAD-SLi.
Если бы тогда был изобретен майнинг, все манеры бы застрелились еще тогда, только от вида таких четырех видеокарт в одной системе, и я бы вам не надоедал со своим анализом стоимости цен на видеокарты RTX 2000 и 3000-й серии. Но история пошла по другому пути.
Потом поняв, что они ошиблись, R&D Nvidia выпустил упрощенную модель NVIDIA 7950 GX2, карта была гораздо короче, что не давало такой статусности новому владельцу. И если основным производителем NVIDIA 7900 GX2 была сама Nvidia, то NVIDIA 7950 GX2 клепали все подряд. И таинства чуда и причастности к волшебству уже никто не получал. Очень жаль.
А далее события развивались по накатанной. После NVIDIA 7950 GX2 была выпущена NVIDIA 9800 GX2. Ну а что делать, деньги то нужны всем. На этот раз бутерброд обрел пластиковый кожух, который мог превращаться в маленький гробик, если геймер не пылесосил этот кирпич два раза в неделю.
Видеокарта было очень горячей, но, к сожалению, после 8800 Ultra, это уже стало нормой. Папа иногда гладил ею свой галстук, а мама могла приготовить на ней горячие пирожки, чтобы дать их собой в школу.
На этом я поставлю жирную точку. Хотя запятая была бы более актуальна, ведь история не закончилась, но я подожду ваших гнилых помидор в свой адрес в комментариях или хвалебных од в свой адрес. И вы мне скажите, что пора завязывать или писать продолжение.
Есть ли практическая польза от двух видеокарт в играх
Две видеокарты, установленные на одном компьютере и объединенные при помощи SLI (Scalable Link Interface) от NVIDIA или CrossFire от AMD, дают прирост в производительности 15-30%. Очень редко, в зависимости от оптимизации игр, прирост может достигать 50%. Технология AMD CrossFire оптимизирована заметно хуже, чем SLI от NVIDIA. Если интересно, то более подробно читаем далее ⇒
Дальнейшее развитие параллельного соединения GPU
С выходом нового поколения видеокарт GeForce RTX, NVIDIA анонсировала и новый интерфейс (мост) NVLink для соединения двух графических процессоров для совместной работы. Соединяются они при помощи NVLink Bridge . Скорость передачи данных по новому интерфейсу по сравнению со SLI выросла в 10 раз. С 10 Гбайт/с до 100 Гбайт/с. NVLink поддерживают только GeForce RTX 2080 и RTX 2080 Ti, модели 2070 и 2060 его лишены.
Судя по моему анализу различных игровых тестов, проведенных с двумя видеокартами последних поколений 2080Ti, новый интерфейс практически во всех современных играх в разрешении 8k (7680 × 4320 точек) дает минимум 40% прирост производительности, по сравнению с работой SLI режима на двух 1080Ti. Ниже на изображении я привел результаты одного из таких тестов.
Мониторы 8k сейчас еще очень дороги и практическая польза такого теста минимальна, но он хорошо показывает перспективы возможного увеличения применения двух видеокарт в недалеком будущем.
Стоит обратить внимание на результаты тестирования двух RTX 2080. Они значительно хуже его старшего собрата. В игре Rise of the Tomb Raider две 2080Ti в 8k выдают 50fps, а 2080 только 37fps. Это сильное падение производительности.
Не думаю, что это связано с недостатком видеопамяти. Скорее всего, драйвера для распараллеливания графических данных лучше оптимизированы под 2080Ti, так как по своим характеристикам она близка к профессиональным решениям NVIDIA для параллельных вычислений, под которые изначально и разрабатывался новый интерфейс. Я надеюсь, что более поздние версии драйверов доведут до ума и они будут оптимизированы значительно лучше.
Кстати, NVLink, в отличие от SLI, поддерживает объединение видеопамяти обоих видеокарт.
Как установить две видеокарты на ПК
В будущем нам придется очень грамотно планировать покупку компьютера. Если разница в потреблении энергии между 2-мя и 4-мя планками оперативной памяти не значительна, то при установке 2 видеокарт или более, нам необходимо будет учитывать их суммарную потребляемую мощность.
На материнской плате должны быть слоты для установки двух видеокарт и с обязательной поддержкой их совместной работы. Чтобы узнать, поддерживает ли материнская плата две видеокарты, перейдите на официальную страницу производителя системной платы и проверьте спецификации. Так же это можно определить по наличию на коробке логотипа Crossfire, SLI или NVLink.
Блок питания также должен обладать достаточной мощностью, чтобы тянуть все железо компа+2 видеокарты. Сейчас для этого необходимо около 900 Вт для 2х топовых видях.
При использовании двух видеокарт, игры становятся процессорозависимыми.
Чем выше разрешение вы используете, и чем больше даете нагрузку на видеокарту(ы), тем меньше это проявляется.
При уменьшении разрешения монитора и уменьшении нагрузки на видеокарт(у)ы, этот эффект уменьшается до его полного исчезновения, так как узким местом становиться видяха, а не центральный процессор.
Для работы с двумя топовыми видеокартами, вам придется раскошелиться и на максимально мощный процессор, иначе все это не имеет смысла.
Должно быть организовано качественное охлаждение всех ваших комплектующих системного блока, так как общее тепловыделение очень высокое.
Связывайте NVLink только видеокарты выполненные на однотипном графическом процессоре. Производитель не важен, но важна частота работы GPU, так как при объединении обе видяхи будут работать на меньшей частоте. Например у нас одна карточка, которая имеет рабочую частоту 1695 Мгц, а другая 1770 Mгц, то в совместном режиме они обе будут работать на 1695 Мгц. Все точно так же, как у оперативной памяти.
Пара графических карт требует вместительного компьютерного корпуса, которого будет достаточно как для их установки, так и дополнительного оборудования.
В панели управления драйвером графического процессора, должна быть включена функция NVLink, SLI или Crossfire.
Выводы и умозаключения
С выходом NVLink, технологию CrossFire от AMD можно смело хоронить. Она и так была хуже по реализации, чем SLI, а теперь вообще не конкурент. AMD срочно нужно что-то новое придумать, так как технологии совместной работы двух и более видеокарт станут намного производительнее, что повлечет за собой их распространение. Это станет еще одним конкурентным преимуществом.
Я думаю, что параллельная работа двух и более видеокарт будет похожа по развитию на многоядерные процессоры. Технологические процессы изготовления чипов уже настолько малы, что выпускать более сложные микросхемы становиться дорого.
Заметьте рост цен на топовые видеокарты. Я помню еще те времена, когда топовый на то время видеоускоритель ATI Radeon 9700pro
стоил 16000 руб (около 500 баксов). Сейчас, даже с учетом роста курса, топовая видяха стоит 1500 долларов.
Сделать многоядерным графический процессор скорее всего не получиться, так как он намного сложнее центрального. Да и с отводом тепла что-то придумывать придется. Проще отладить технологию параллельных вычислений и завести ее качественную поддержку во все игры, а не как сейчас. С выходом следующего поколения видеокарт, будет реально видно, куда будет идти развитие.
Уже можно сказать точно, что поддержки работы двух и более видеокарт не будет в тех моделях, которые по общей стоимости будут равны или дороже топового варианта из их же поколения. Смысла в покупке такого тандема просто не будет (как и сейчас нет). Лучше будет взять одну топовую видяху, чем два середнячка, а через год-два взять еще одну (уже дешевле) и увеличить производительность на 100%. Как раз к этому времени лучшую оптимизацию подвезут и игры новые появятся для такой производительности. Сейчас производители обновляют модельный ряд видеокарт примерно каждые 18 месяцев. Скорее всего эти сроки будут увеличены.
На момент написания статьи положение дел такое, что устанавливать в компьютер две видеокарты имеет смысл, только если у вас разрешение монитора 4k и более. Только тогда вы получите прирост скорости в играх. Для меньших разрешений целесообразно купить одну хорошую видеокарту.
В общем, пока использование двух видеокарт в компьютере, остается уделом богатеньких буратино. И таким останется ближайшие 2-3 года. При примерном подсчете, стоимость игровой системы с двумя современными топовыми видеокартами ушла за 300 тысяч, вместе с монитором на 8k, и чуть дешевле на 4k.
Более приземленных пользователей хочу обрадовать, что сильно расстраиваться пока не о чем, так как на самые ходовые разрешения и мониторы одной, среднего уровня видеокарты, пока более чем достаточно. Об этом подробнее я рассказал в статье о выборе монитора и видеокарты.