Всім доброго часу доби, Друзі! Як правило, з виходом нової вимогливої ігри, відновлюються суперечки: яке залізо краще, які видяхи краще розкривають всю динаміку і красу пейзажів цього екшену, що потрібно купувати... це і спонукало мене об'єднати інформацію з декількох форумів в одне ціле. Пошукавши схожі новини та не знайшовши нічого подібного (начебто всім відомого), вирішив запостити...
Ну що ж, приступимо:
Важливість правильного вибору відеокарти, як найдорожчої складової сучасної комп'ютерної системи – складно перебільшити.
У даній статті ми трохи відійдемо від обговорення конкретних характеристик моделей відеокарт і будемо говорити більш масштабно. Спробуємо в загальних рисах оцінити і, з горем навпіл, порівняти двох великих гравців на світовому ринку відеокарт – Nvidia і AMD.
I. Geforce і Radeon – не відеокарти, а чіпи для відеокарт.
В рамках цієї статті ми не будемо торкатися теми інтегрованих рішень, а в більшій мірі будемо говорити про дискретних моделях. В цій ніші, як бюджетних, так і топових сегментів ринку, як я вже говорив: правлять Nvidia і AMD. До речі, відразу хотів би відзначити той факт, що компанію ATI AMD придбала. І з 2006 року ми вже називаємо їх продукцію не ATI Radeon, а AMD Radeon (приметочка для тих, хто «трохи» відстав від життя).
Тепер, власне, ближче до теми. Треба одразу нагадати про одну просту і важливу особливості: Nvidia і AMD – це виробники графічних процесорів для відеокарт. А виробниками, безпосередньо, готових рішень у вигляді відеокарт, є ті компанії, які, безпосередньо, збирають і комплектують свої продукти чіпами (процесорами) Radeon і Geforce.
II. Виробники відеокарт. Вибір.
Приклади основних виробників відеокарт:
- на відеочіпах AMD Radeon: HIS, Asus, MSI, Sapphire, Gigabyte, XFX
- на відеочіпах Nvidia Geforce: Asus, Gigabyte, Inno3D, MSI, Palit, Zotac.
Якщо говорити щодо виробників відеокарт, то вони, в більшості випадків схожі, але іноді зустрічаються і значні відмінності, як у гіршу, так і в кращу сторону. Можна констатувати той факт, що AMD і Nvidia замовляють готову продукцію на спеціальних заводах, що штампується саме на основі їх чіпів, а потім вже вони постачають відеокарти різним компаніям, які вказані вище, ті в свою чергу продають їх під своєю торговою маркою.
Близько 80% функціоналу відеокарти визначає саме графічний процесор, в результаті лише 20% залишається виробникам відеокарт, для того, щоб виділитися серед інших «тиражів-близнюків». Можна погіршити ситуацію і сказати, що виробники просто ліплять наклейку своєї компанії і продають їх під своїм брендом, але іноді проводяться істотні доопрацювання. Звичайно, робота не грандіозна, але зміни можна помітити. Найчастіше це підвищення функціоналу за допомогою поліпшення охолодження, інтеграція додаткових інтерфейсів, іноді тиражування відеокарт, які працюють на підвищених частотах (з заводським розгоном).
За великим рахунком, вибір виробника не важливий, так як вони використовують ідентичні патенти Intel і Nvidia. З особистого досвіду скажу, що в плані зв'язку Gigabyte Radeon, завжди траплялися хороші картки, ще починаючи зі старих-добрих HD 3800. Якщо вже говорити про більш нових GTX-ах Nvidia, то там траплялися якісні відеокарти Asus. Але це ні в якому разі не показує інших виробників з негативної сторони. Єдине, що спостерігалися неслабкі проблеми з охолодженням у парочки моделей Palit Geforce 400-ої серії. Але це всього лише кілька моделей, тому масштабно судити неможливо. Коли вибираєте відеокарту, то потрібно звертати увагу на конструктивні відгуки про конкретної моделі відеокарти. Також, необхідно знати про існування noname відеокарт. Дані моделі слід обходити стороною (і вибирати відомих виробників), незважаючи на їх більш низьку вартість, адже відеокарти з китайських подвальчиков нікому не потрібні.
III. Продуктивність. Які чіпи краще, Nvidia або AMD?
А ось саме тут все дуже неоднозначно. Обидві компанії йдуть «ніздря в ніздрю» і в кожному кварталі радують нас новими флагманськими моделями.
Також не варто забувати про те, що Nvidia не обмежується одними лише чіпами GeForce. В асортименті компанії є високопродуктивні чіпи Quadro, які підходять як для професійних робочих станцій, так і для користувальницьких систем. Не забуває Nvidia і про ринок мобільних пристроїв, тут добре «влаштувалися» процесори Nvidia Tegra, які забезпечують потужну графічну продуктивність для смартфонів, планшетів та інших портативних девайсів.
Огляд технологій AMD (ATI) і Nvidia.
Гаразд, не будемо йти в нетрі мобільних рішень, адже основна тема обговорення – це дискретні відеокарти. Краще обговоримо основні технології Nvidia і AMD.
«Всередині» продукції Nvidia і AMD, можна зустріти такі технології:
- Nvidia SLI – дана технологія, що дозволяє об'єднувати декілька відеокарт в одній системі (за рахунок декількох слотів PCI-Exprees на материнській платі), що в свою чергу значно збільшує продуктивність системи.
Аналогом AMD є технологія AMD Cross Fire, яка нічим не поступається SLI дозволяє поєднувати в системі кілька відеоадаптерів, з таким же позитивним ефектом для загальної продуктивності системи.
- Nvidia 3D Vision Surround – ця технологія забезпечує підключення трьох FullHD-моніторів, для занурення в світ 3D.
Але якщо говорити про аналог AMD в особі технології Eyefinity, то вона дозволяє підключати до 6 моніторів на одну відеокарту, починаючи з 6000 –их серій AMD (природно не без підтримки даної технології). А зараз з'явилися спеціальні модифіковані системи, які дозволяють об'єднувати до 24 моніторів в 1 стенд, саме з допомогою технології Eeyfinity. Так що AMD тут можна назвати більш успішними. Але це вже затята специфіка, давайте повернемося ближче до реальності, де наявність виводу зображення всього на 3 монітора – вже неймовірна дивина і розкіш, так як для цього доведеться зібрати потужну систему і непогано витратитися на монітори.
- Nvidia CUDA – технологія являє собою програмно-апаратну архітектуру, яка дозволяє проводити обчислення з використанням графічного процесора, що помітно підвищує продуктивність системи, тобто графічний процесор допомагає центральному процесору в його обчислювальній роботі.
Аналогом компанії AMD, є технологія FireStream. Але в силу деяких обставин більш відомою і «технологічною» є саме CUDA.
- Nvidia PhysX є кросплатформенним движком для симуляції фізичних явищ.
Фізичний движок PhysX SDK складається з трьох компонентів обробки фізики:
- обробка твердих тіл;
- обробка тканин;
- обробка рідин;
Якщо у відеокарти відсутня підтримка PhysX, то ці обчислювальні завдання переносяться на центральний процесор.
Хоч PhysX є відкритим стандартом, але в силу факторів конкуренції Nvidia CUDA і AMD FireStream, компанія AMD починає в 2009 році використання альтернативного движка ірландської компанії, під назвою Havok Physics.
Трохи зачепивши своїм поглядом основні технології, якими наділені сучасні чіпи AMD(ATI) і Nvidia, ми рухаємося далі.
Висновки. Які ж відеокарти краще?
Тепер, мабуть, підведемо невеликі підсумки у битві відеокарт, якою, в рамках даної статті, майже не було (:
Чому не було? Та тому що все дуже неоднозначно. Немає явної переваги тієї чи іншої сторони.
Якщо трохи спуститися на землю і говорити щодо наближених до рядовим користувачам моделей відеокарт, то вибір буде грунтуватися чисто на бюджет, виділений на покупку відеокарти, а вже приналежність до якого-небудь виробника відеочіпів або готових рішень, просто-напросто не буде мати вагомого значення. При виборі відеокарти, необхідно перечитати огляди відеокарт бажаного цінового діапазону, ознайомитися з відгуками та переглянути характеристики, а потім вже ухвалювати яке-небудь рішення про купівлю, що в плані відеокарт не завжди дається просто.
А з упевненістю порівнювати можна тільки конкретні моделі й у глобальному порівнянні відеокарт Nvidia і AMD , перемагає дружба і потокові процесори.
AMD Radeon HD 7790 проти NVIDIA GeForce GTX 650 Ti BOOST – тестування продуктивності
Введення
У 2012 році два основні гравці на ринку графічних процесорів AMD і NVIDIA для дискретних відеокарт зробили практично все, щоб їх нові лінійки 3D-карт були повністю сформовані. Кожна компанія була готова запропонувати ігрове рішення споживачам будь-якого достатку. Крім того, зовсім недавно NVIDIA посилила свої позиції у верхньому ціновому сегменті, випустивши GeForce GTX TITAN, а AMD зараз відповідає на це двопроцесорної Radeon HD 7990. Однак, сьогодні мова піде зовсім не про Hi-End відеокарти, а про конкуренцію в найбільш масовому – бюджетному секторі.
Справа в тому, що до недавнього часу в лінійці відеокарт на графічних процесорах AMD існувала одна серйозна «діра». Ми маємо на увазі ціновий діапазон приблизно від 110 до 190 доларів США, представлений Radeon HD 7770 GHz Edition на графічному процесорі «Cape Verde XT» та Radeon HD 7850 на «Pitcairn Pro». Як відомо, продуктивність цих відеокарт відрізняється більше ніж на 50%, та й різниця в ціні пристойна. Звичайно, можна спробувати знайти варіант Radeon HD 7850 з одним гігабайтом відеопам'яті за ціною приблизно 160 доларів США, але з якихось причин популярною ця модель так і не стала. Тому на амбразуру в терміновому порядку була кинута нова Radeon HD 7790 на графічному процесорі «Bonaire» (149~169 доларів США). Досконало цю відеокарту ми вивчимо в оглядовій статті, сьогодні ж – тільки продуктивність.
У свою чергу, у лінійка відеокарт NVIDIA виглядає більш збалансованою, без таких істотних «прогалин» в продуктивності і ціні. Незважаючи на це, компанія вирішила відповісти на випуск Radeon HD 7790 своєю новою відеокартою. Їй стала GeForce GTX 650 Ti BOOST з рекомендованою вартістю 149 доларів США за версію з одним гігабайтом відеопам'яті, і 169 доларів США з двома. Давайте дізнаємося, чи будуть змагатися дві ці новинки один з одним, як багато вони додали в порівнянні з, відповідно, HD 7770 і GTX 650 Ti, і як багато поступаються HD 7850 і GTX 660.
1. Технічні характеристики AMD Radeon HD 7790 і NVIDIA GeForce GTX 650 Ti BOOST
Технічні характеристики відеокарт AMD Radeon HD 7790 і NVIDIA GeForce GTX 650 Ti Boost наведені в таблиці у порівнянні з характеристиками AMD Radeon HD 7850/7770 і NVIDIA GeForce GTX 660/650 Ti:
2. По Максимуму розігнали видяйхи:
Що стосується частот даного продукту ASUS, то вони підвищені з номінальних 1000/6000 МГц до 1075/6400 МГц, однак у нашому тестуванні ми привели їх до еталонних. Крім цього, ми додатково перевірили ASUS Radeon HD 7790 при максимально можливому розгоні, який склав 1220/6640 МГц:
У свою чергу, еталонна відеокарта NVIDIA GeForce GTX 650 Ti BOOST спочатку функціонувала на номінальних для себе частотах 980/6008 МГц, тому знижувати їх нам не довелося:
При розгоні нам вдалося досягти частоти графічного процесора 1140 МГц (1193 МГц – у форсованому режимі), а відеопам'ять стабільно функціонувала при 6648 МГц:
Крім конкуренції один з одним, продуктивність Radeon HD 7790 і GeForce GTX 650 Ti BOOST сьогодні буде перевірена у порівнянні з найближчими за вартістю моделями відеокарт. Так, Radeon HD 7850 представлена продуктом компанії HIS, а Radeon HD 7770 GHz Edition – еталонної відеокартою AMD:
Нехай вас не бентежить підвищена частота графічного процесора на скріншоті HIS Radeon HD 7850, так як під час тестування вона була приведена до еталонним 860 МГц.
На сходинку вище GeForce GTX 650 Ti BOOST в ієрархії NVIDIA варто GeForce GTX 660, представлена в сьогоднішньому тесті відеокартою ASUS. А на сходинку нижче – проста GeForce GTX 650 Ti, виступати за яку сьогодні буде продукт Gigabyte:
Як видно, їх частоти ми також призвели до еталонних.
Тестування, почате 31 березня 2013 року, було проведено під управлінням операційної системи Microsoft Windows 7 Ultimate x64 SP1 з усіма критичними оновленнями на зазначену дату і встановленням наступних драйверів:
Враховуючи невисоку продуктивність тестованих сьогодні відеокарт, вони були протестовані тільки в одному розширенні – 1920х1080 пікселів. Більш низькі розширення поступово стають неактуальними, зважаючи планомірного зниження цін на Full HD монітори. Для тестів використовувалися два режими якості графіки: «Quality + AF16x» – якість текстур в драйверах за замовчуванням з включенням анізотропної фільтрації рівня 16х, і «Quality + AF16x + MSAA 4х» з включенням анізотропної фільтрації рівня 16х і повноекранного згладжування ступеня 4x. Включення анізотропної фільтрації і повноекранного згладжування виконувалося безпосередньо в налаштуваннях ігор. Якщо ж дані налаштування в іграх відсутні, то параметри змінювалися в панелях управління драйверів Catalyst і GeForce. Там же була примусово відключена вертикальна синхронізація. Крім зазначених, ніяких змін в налаштування драйверів не вносилося.
Як і завжди, список тестових додатків і ігор був оновлений і розширений. Ми виключили з нього тест Unigine Heaven, фактично дублюючий своїми результатами новий Valley. Крім того, до раніше включених в тестування Resident Evil 6, Crysis 3 і Tomb Raider (2013), додалися такі новинки, як StarCraft 2: Heart of the Swarm і BioShock Infinite. Не забуті і всі останні оновлення, традиційно встановлюються на ігри зі списку перед кожним тестом відеокарт на дату початку тестування. Всього в нашому сьогоднішньому «арсеналі» значиться два напівсинтетичних бенчмарку, одна демо-сцена і п'ятнадцять найбільш ресурсномістких ігор:
Resident Evil 6 Bench (DirectX 9), Metro 2033: The Last Refuge (DirectX 10/11), Aliens vs. Predator (2010) (DirectX 11) etc
Якщо в іграх реалізована можливість фіксації мінімальної кількості кадрів в секунду, то воно також відбивалося на діаграмах. Кожен тест проводився двічі, за остаточний результат приймалося найкраще з двох отриманих значень, але тільки у випадку, якщо різниця між ними не перевищувала 1%. Якщо відхилення прогонів тестів перевищували 1%, то тестування повторювалося ще, як мінімум, один раз, щоб отримати достовірний результат.
3. Результати тестів продуктивності та їх аналіз
В 3DMark 2011 нова відеокарта Radeon HD 7790 на 31-36% випереджає молодшу Radeon HD 7770 GHz Edition, і одночасно відстає від Radeon HD 7850 на 9-11%, наздоганяючи і випереджаючи її при розгоні. У свою чергу, GeForce GTX 650 Ti BOOST на 11-19% швидше звичайної GTX 650 Ti і на 5-7% повільніше GTX 660. Якщо ж порівнювати тільки дві нові відеокарти, то в режимі налаштувань «Performance» трохи швидше Radeon HD 7790, а в якісному «Extreme» попереду виявляється GeForce GTX 650 Ti BOOST.
У двох перших тестових сценах 3DMark (2013) ми можемо спостерігати однакову картину, де продукти NVIDIA випереджають конкурентів з AMD в своїх класах. А ось самий вибагливий тест – Fire Strike Extreme – оголив слабку сторону Radeon HD 7790 – невеликий об'єм відеопам'яті і, як наслідок, падіння продуктивності. Всі три відеокарти GeForce GTX мають вдвічі більший об'єм відеопам'яті, тому справляються з екстремальним режимом налаштувань Fire Strike в 4-6 разів краще.
4. Енергоспоживання
Як бачимо, всі варіації однієї системи з різними відеокартами укладаються в потужність 450 ватт, навіть незважаючи на досить швидкий процесор в нашій тестовій конфігурації. Найбільш економічними цілком закономірно стали системи з Radeon HD 7770 GHz Edition і GeForce GTX 650 Ti, а найбільше споживає енергії система з GeForce GTX 660. Втім, при отриманої різниці сьогодні в енергоспоживанні можна сказати, що в контексті даної статті ці дані малокорисні і не вплинуть на вибір якоїсь конкретної відеокарти
Висновок
Отже, що ми сьогодні з'ясували? По-перше, те, що як Radeon HD 7790, так і GeForce GTX 650 Ti BOOST досить вдало вписалися в існуючі лінійки відеокарт на графічних процесорах AMD і NVIDIA. Перша так і зовсім ідеально «потрапила» між продуктивністю Radeon HD 7770 GHz Edition Radeon HD 7850, а друга розташовується все ж ближче до продуктивності GeForce GTX 660. По-друге, обидві відеокарти непогано розганяються і за рахунок цього або скорочують відставання до старших моделей, як це відбувається з Radeon HD 7790, або і зовсім здатні вийти на той же рівень продуктивності, як ми з вами це сьогодні спостерігали з GeForce GTX 650 Ti BOOST. По-третє, незважаючи на той факт, що за ціною Radeon HD 7790 позиціонується в якості конкурента GTX 650 Ti BOOST (або навпаки, не суть важливо) продуктивність цих відеокарт відрізняється на користь NVIDIA, причому в деяких іграх вона відрізняється досить суттєво. По швидкості, швидше, Radeon HD 7790 знаходиться між звичайною GTX 650 Ti і GTX 650 Ti BOOST, ніж є конкурентом останньому. Що стосується саме Radeon HD 7790, то ми б рекомендували купувати відеокарту з двома гігабайтами відеопам'яті, щоб не відчувати проблем в ресурсномістких режимах, тим більше, що різниця в ціні між версіями з одним і двома гігабайтами не істотна.