Рекомендуемый источник питания для NVIDIA GeForce GTX 1070
Какой блок питания подходит для NVIDIA GeForce GTX 1070?
Вам понадобится блок питания мощностью не менее 350Вт.
Каковы требования к источнику питания для NVIDIA GeForce GTX 1070?
Минимальные требования к источнику питания для NVIDIA GeForce GTX 1070 — источник питания не менее 350Вт
Добавить процессор
Получите помощь в выборе блока питания
Все еще не знаете, какой блок питания вам нужен для вашего компьютера? Нет проблем, заполните контактную форму
Мы были бы рады любой оплате в благодарность за бесплатное пользование нашегово сайта
Программисты это те, кто вкладывают труд в каждый код, мы были бы рады, если бы вы подарили нам свое доверие, чтобы мы могли продолжать предоставлять вам услугу бесплатно
Какой блок питания нужен для GTX 1060, 1070, 1080
При подборе комплектующих для нового компьютера очень важно правильно выбрать блок питания (БП), поскольку недостаточная мощность будет приводить к нестабильной работе ПК. С другой стороны, покупать БП с большим запасом также не лучшая идея, так как это сильно ударит по бюджету и не позволит собрать оптимальную конфигурацию. В данной статье мы расскажем, какой блок питания нужен для видеокарт NVIDIA GEFORCE GTX 1060, 1070, 1070 Ti, 1080 и 1080 Ti.
Блок питания для GEFORCE GTX 1060
Для того чтобы определить, какой блок питания нужен для видеокарты NVIDIA GEFORCE GTX 1060 в первую очередь обратимся к характеристикам на официальном сайте производителя. Согласно официальным данным эта видеокарта потребляет 120 Вт электроэнергии. При этом данный показатель одинаковый, как для версии с 3 Гб видеопамяти, так и для версии с 6 Гб видеопамяти.
Также компания NVIDIA сама указывает рекомендованную мощность для блока питания. В данном случае для обоих версий видеокарты GTX 1060 рекомендованная мощность блока питания составляет 400 Вт .
Проверить мощность блока питания, которую рекомендует компания NVIDIA, можно при помощи онлайн калькулятора БП. Такие калькуляторы позволяют выбрать используемые в компьютере комплектующие и примерно оценить, какой БП необходим для работы такого ПК.
В данной статье использовался калькулятор от MSI, который сейчас не доступен. Вместо можно использовать другие подобные калькуляторы:
Если выбрать процессор Intel Core i9 9900KF, одну видеокарту GEFORCE GTX 1060, 2 жестких диска, 4 модуля оперативной памяти, 4 вентилятора, 4 дополнительных карты PCI express и 1 DVD-привод, то калькулятор от MSI рекомендует 400 Вт .
Учитывая, указанные выше данные от NVIDIA и MSI можно сделать вывод, что для нормальной работы видеокарты NVIDIA GEFORCE GTX 1060 нужен блок питания мощностью 400 Вт . Если вы хотите перестраховаться или иметь запас на апгрейд комплектующих в будущем, то вы можете приобрести БП с некоторым запасом. Например, можно взять модель, которая обеспечивает на 100 Вт больше. Таким образом, для GTX 1060 мощность блока питания с запасом будет составлять 500 Вт .
Блок питания для GEFORCE GTX 1070 и GTX 1070 Ti
Для того чтобы узнать, какой блок питания подойдет для видеокарты NVIDIA GEFORCE GTX 1070 и GTX 1070 Ti нам нужно изучить характеристики на сайте компании NVIDIA. Согласно официальным характеристикам, данная видеокарта потребляет 150-180 Вт мощности. При чем этот показатель одинаковый, как для обычной версии, так и для улучшенной версии с приставкой Ti.
Также в характеристиках видеокарты компания NVIDIA дает рекомендации по мощности блока питания. В этом случае для обоих версий GTX 1070 рекомендуемая мощность БП составляет 500 Вт .
Проверить рекомендуемую мощность блока питания, которую указала NVIDIA, можно при помощи онлайн калькулятора БП. Данные калькуляторы позволяют примерно оценить мощность блока питания на основе используемых комплектующих. В нашем случае мы будем пользоваться калькулятором от MSI. Мы укажем процессор Intel Core i9 9900KF, одну видеокарту GEFORCE GTX 1070 Ti, 2 жестких диска, 4 модуля оперативной памяти, 4 вентилятора, 4 дополнительных карты PCI express и 1 DVD-привод. С такими комплектующими калькулятор от MSI рекомендует чуть больше 450 Вт .
В данном случае калькулятор от MSI выдал результат на 50 Вт меньше, чем рекомендует NVIDIA. Поэтому, для максимальной надежности нужно ориентироваться на большее значение.
Таким образом можно сделать вывод, что для штатной работы видеокарты NVIDIA GEFORCE GTX 1070 или 1070 Ti нужен блок питания мощностью 500 Вт . Если вы хотите оставить место для апгрейда или просто хотите перестраховаться, то вы можете установить БП с некоторым запасом. Например, можно приобрести модель, которая выдаст на 100 Вт больше. Таким образом, для GTX 1070 и GTX 1070 Ti мощность БП с запасом будет составлять 600 Вт .
Блок питания для GEFORCE GTX 1080 и GTX 1080 Ti
Для того чтобы решить, какой БП подойдет для видеокарт NVIDIA GEFORCE GTX 1080 и GTX 1080 Ti нам нужно изучить официальные характеристики на сайте NVIDIA. Согласно официальной информации, видеокарта GTX 1080 потребляет 180 Вт , а видеокарта GTX 1080 Ti – 250 Вт .
Также в официальных характеристиках компания указывает рекомендуемую мощность блока питания. В этом случае для видеокарты GTX 1080 рекомендуемая мощность составила 500 Вт , а для видеокарты GTX 1080 Ti – 600 Вт .
Проверить мощность блока питания, которая указана в характеристиках, можно с помощью онлайн калькулятора БП. Подобные калькуляторы позволяют сделать ориентировочную оценку мощности блока питания на основе указанных комплектующих. Для проверки мы будем использовать калькулятор от MSI.
Для начала проверим значения для GEFORCE GTX 1080. Укажем Intel Core i9 9900KF, одну видеокарту GEFORCE GTX 1080, 2 жестких диска, 4 модуля оперативной памяти, 4 вентилятора, 4 дополнительных карты PCI express и 1 DVD-привод. Результат калькулятора с такими комплектующими чуть больше 450 Вт (такой же как и у 1070 и 1070 ti).
Для проверки значения GEFORCE GTX 1080 Ti будем использовать те же комплектующие. Результат GTX 1080 Ti – 525 Вт .
В случае видеокарт GTX 1080 и GTX 1080 Ti калькулятор от MSI выдает значения, которые заметно ниже, чем рекомендуемые компанией NVIDIA. Поэтому при выборе БП стоит ориентироваться в первую очередь на официальные значения от NVIDIA.
Из этого можно сделать вывод, что для GTX 1080 нужен блок питания на 500 Вт , а для GTX 1080 Ti на 600 Вт . Если вы желаете перестраховаться или оставить запас для будущего апгрейда, то можно взять модель на 100 Вт больше. Таким образом мощность блока питания с запасом для GTX 1080 составит 600 Вт , а для GTX 1080 Ti – 700 Вт.
- Какой блок питания нужен для видеокарт GeForce RTX 2070 и RTX 2070 Super
- Какой блок питания нужен для видеокарт GeForce RTX 2060 и RTX 2060 Super
- Как удалить драйверы видеокарты NVIDIA GeForce GTX
- Как обновить драйверы видеокарты NVIDIA GeForce
- Как полностью удалить драйвер NVIDIA GeForce или AMD Radeon
Создатель сайта comp-security.net, автор более 2000 статей о ремонте компьютеров, работе с программами, настройке операционных систем.
Задайте вопрос в комментариях под статьей или на странице «Задать вопрос» и вы обязательно получите ответ.
Мощность блока питания — это та , что заявлена общая или реальное КПД блока? Какой брать?
Заявленная производителем, конечно же.
КПД здесь вообще не причем, это значение влияет только на потребление с розетки и нагрев. Если у БП мощность 500 Вт и КПД 80%, то это не означает, что он выдаст только 80% этой мощности. Он выдаст все заявленные 500 Вт (если он качественный), а с розетки будет потреблять больше 500 Вт (500 / 0,8 = 625 Вт).
Добрый день.
Имею на борту райзен5 2600, 16гб DDR4(2*8), 2 HDD, 3 корпусных крутилки и башня на процессоре (все с подсветкой) и блок питания be quiet System Power 9 500W. Хватит ли мне данного блока питания, если я поставлю gtx1070? Проверял по калькулятору MSI и Be Quit, и там и там выдавало результат не больше 380 вт, при этом разница между данными была около 50/60 вт почему-то….Просто есть возможность прикупить за недорого ASUS ROG Strix GTX 1070 8Гб.
Заранее спасибо за ответ!)))
Этот блок по линии 12 вольт выдает 456 Вт. Этого должно хватить, но это очень впритык. Я бы рекомендовал все-таки взять БП чутка помощнее.
Добрый день.У меня проц i7 6 поколения и видеокарта 1060 strix.Хватит ли мне бп на 500w?
Обзор и тестирование видеокарты NVIDIA GeForce GTX 1070: в погоне за лидером
Неимоверный ажиотаж вокруг появления первой видеокарты GeForce GTX 1080 на новом графическом процессоре GP104 16-нм архитектуры Pascal компании NVIDIA ещё не успел стихнуть, а нынешний лидер 3D-графики уже выпускает следующую модель видеокарты – GeForce GTX 1070.
Она основана на том же чипе GP104, правда в несколько урезанном архитектурно виде, имеет чуть более низкие частоты графического процессора и обычную память GDDR5. Но благодаря более низкой стоимости и прогнозируемо высокому оверклокерскому потенциалу, именно GeForce GTX 1070 может стать наиболее популярной видеокартой среди любителей игр. Впрочем, обо всём по порядку.
⇡#Технические характеристики видеокарты и рекомендованная стоимость
Технические характеристики и стоимость видеокарты NVIDIA GeForce GTX 1070 приведены в таблице в сравнении с эталонными версиями NVIDIA GeForce GTX 1080, GeForce GTX 980 Ti, GeForce GTX 980 и GeForce GTX 970. Отличия GTX 1070 от GTX 1080 выделены полужирным шрифтом.
Наименование технических характеристик | NVIDIA GeForce GTX 1080 | NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 980 Ti |
NVIDIA GeForce GTX 980 |
NVIDIA GeForce GTX 970 |
|
---|---|---|---|---|---|---|
Графический процессор | GP104-A1 Pascal (TSMC) |
GP104-A1 Pascal (TSMC) |
GM200-A1 Maxwell 2.0 (TSMC) |
GM204-A1 Maxwell 2.0 (TSMC) |
GM204-A1 Maxwell 2.0 (TSMC) |
|
Техпроцесс, нм | 16 | 16 | 28 | 28 | 28 | |
Площадь кристалла, мм 2 | 314 | 314 | 601 | 398 | 398 | |
Число транзисторов, млн | 7200 | 7200 | 8000 | 5200 | 5200 | |
Частота графического процессора, МГц | 3D | 1607 (1734 – boost) |
1506 (1683 – boost) |
1000 (1076 – boost) |
1126 (1216 – boost) |
1050 (1178 – boost) |
2D | 139 | 139 | 135 | 135 | 135 | |
Число унифицированных шейдерных процессоров, шт. | 2560 | 1920 | 2816 | 2048 | 1664 | |
Число текстурных блоков, шт. | 160 | 120 | 176 | 128 | 104 | |
Число блоков растровых операций (ROPs), шт. | 64 | 64 | 96 | 64 | 64 | |
Теоретическая максимальная скорость закраски, Гпикс./с | 102,8 | 96,4 | 96,0 | 72,1 | 67,2 | |
Теоретическая максимальная скорость выборки текстур, Гтекс./с | 257,1 | 241,0 | 176,0 | 144,1 | 109,2 | |
Поддержка версии Pixel Shaders / Vertex Shaders | 5.0 / 5.0 | 5.0 / 5.0 | 5.0 / 5.0 | 5.0 / 5.0 | 5.0 / 5.0 | |
Тип поддерживаемой памяти | GDDR5X | GDDR5 | GDDR5 | GDDR5 | GDDR5 | |
Разрядность шины обмена с памятью, бит | 256 | 256 | 384 | 256 | 256 | |
Эффективная частота работы видеопамяти, МГц | 3D | 10 000 | 8 012 | 7 012 | 7 012 | 7 012 |
2D | 810 | 810 | 648 | 648 | 648 | |
Объем памяти, Гбайт | 8 | 8 | 6 | 4 | 4 | |
Полоса пропускания видеопамяти, Гбайт/с | 320,3 | 256,3 | 336,6 | 224,4 | 224,4 | |
Пиковая потребляемая мощность в 3D-режиме работы, Вт | 3D | 180 | 150 | 250 | 165 | 145 |
2D | н/д | н/д | н/д | н/д | н/д | |
Требования к мощности блока питания, Вт | 500 | 500 | 600 | 500 | 500 | |
Размеры видеокарты, мм (Д × В × Т) | 268 × 102 × 37 | 268 × 102 × 37 | 267 × 100 × 39 | 267 × 100 × 39 | 267 × 100 × 39 | |
Интерфейс | PCI-Express x16 (v3.0) | PCI-Express x16 (v3.0) | PCI-Express x16 (v3.0) | PCI-Express x16 (v3.0) | PCI-Express x16 (v3.0) | |
Выходы | DVI-D (Dual-Link), 1 HDMI v2.0b, 3 DisplayPort v1.4 |
DVI-D (Dual-Link), 1 HDMI v2.0b, 3 DisplayPort v1.4 |
DVI-I (Dual-Link), 1 HDMI v2.0, 3 DisplayPort v1.2 |
DVI-I (Dual-Link), 1 HDMI v2.0, 3 DisplayPort v1.2 |
DVI-I (Dual-Link), 1 HDMI v2.0, 3 DisplayPort v1.2 |
|
Рекомендованная стоимость, долларов США | 599-699 | 379-449 | 649 | 499 | 329 |
Кратко резюмируя приведённые выше характеристики, отметим, что в графическом процессоре новой GeForce GTX 1070 аппаратно отключён один Graphics Processing Cluster, содержащий пять мультипроцессоров Streaming Multiprocessor, каждый из которых состоит из 128 CUDA-ядер. Таким образом, владельцы видеокарты GeForce GTX 1070 недосчитаются 640 шейдерных процессоров (то есть их на 25 % меньше, чем в GPU GTX 1080, построенной на том же чипе GP104). Второе по значимости изменение — другой тип памяти: новинка оснащена памятью типа GDDR5, а не новой GDDR5X, да и частота вместе с пропускной способностью у нее на 20 % ниже. Рекомендованная стоимость GeForce GTX 1070 для России составляет 35 тысяч рублей (GeForce GTX 1080 – 55 тысяч рублей).
⇡#Дизайн и особенности печатной платы
Образцы для прессы (в весьма ограниченном количестве, кстати) были предоставлены на тестирование в небольшой коробке, выполненной из плотного картона и оформленной в характерном для NVIDIA стиле.
В самом центре коробки находится отсек под видеокарту, где она и зафиксирована в дополнительной мягкой оболочке.
Нужно ли говорить, что в плане дизайна эталонная NVIDIA GeForce GTX 1070 является копией GeForce GTX 1080 и во многом напоминает GeForce GTX 980 Ti или GTX 980? Вот как выглядит новинка.
Как и у старшей видеокарты, на обратной стороне появились две защитные панели, установленные встык. На них нанесён логотип NVIDIA и название модели видеокарты. Сверху на кожухе присутствует зелёная надпись «GEFORCE GTX» с подсветкой.
Длина референсного образца GeForce GTX 1070 составляет 268 мм, высота – 102 мм, а толщина – 37 мм. Весит данный экземпляр 1022 грамма.
GTX 1070 от GTX 1080 отличают хромированные символы модели видеокарты в передней части кожуха.
Панель с выходами видеокарты сделана так, чтобы на ней можно было разместить максимально большую сетку для беспрепятственного выброса нагретого воздуха за пределы корпуса системного блока. Тем не менее здесь удалось установить один DVI-D (напомним, что поддержки аналогового видеосигнала теперь нет), один HDMI версии 2.0b и три DisplayPort версии 1.4 для одновременного подключения четырёх мониторов.
Если посмотреть на видеокарту с противоположного торца, то видны рёбра радиатора системы охлаждения.
NVIDIA GeForce GTX 1070, так же как и GTX 1080, оснащается одним восьмиконтактным разъёмом для подключения дополнительного питания, однако заявленный уровень энергопотребления эталонных версий этой модели видеокарты ниже — он составляет 150 ватт, а не 180, как у GTX 1080. Мощность блока питания для системы с одной GeForce GTX 1070 должна начинаться от 500 ватт.
На своих обычных местах остались и разъёмы для создания мультипроцессорных конфигураций, однако для поддержки 4К-разрешений и выше потребуются новые двойные мосты SLI, о которых компания NVIDIA рассказывала в пресс-релизах.
Печатная плата видеокарты выполнена на основе платы GeForce GTX 1080, но получила на одну фазу питания графического процессора меньше.
Таким образом, питание на эталонных GeForce GTX 1070 реализовано по схеме 4+1.
Площадь кристалла графического процессора GP104 составляет скромные 314 мм 2 . Кристалл не имеет защитной рамки, так что при снятии штатной или установке альтернативных систем охлаждения стоит быть предельно осторожным. Говоря языком математики, именно графический процессор видеокарты является главным отличием от GTX 1080, вернее – его конфигурация. Вместо 2560 унифицированных шейдерных процессоров GPU GeForce GTX 1070 содержит 1920, что на 25 % меньше, чем у GTX 1080, но одновременно на 13 % больше, чем у предшественника в лице GeForce GTX 970. При этом блоков текстурирования у GeForce GTX 1070 осталось только 120, а ROP – 64. Разумеется, все архитектурные новшества GP104, о которых рассказывал мой коллега в обзоре старшей видеокарты, в GeForce GTX 1070 также присутствуют.
Благодаря новому, 16-нм техпроцессу, GeForce GTX 1070 получила очень высокие частоты графического процессора. И пусть они немного ниже, чем у флагманской на данный момент GeForce GTX 1080 (а именно на 6,3 % по базовой частоте), в сравнении с аналогичным показателем GeForce GTX 970 прирост частоты колоссален. Если у эталонных GeForce GTX 970 базовая частота графического процессора составляла 1050 МГц, то у новой GeForce GTX 1070 она равна 1506 МГц, то есть на 43,4 % выше! Более того, в форсированном режиме частота может автоматически увеличиваться до 1683 МГц, а, по данным мониторинга, при увеличенных до максимума пределах питания (112 %) и температуры (92 градуса Цельсия) частота графического процессора повышалась до 1886 МГц, то есть практически то той же отметки, что и на эталонной GeForce GTX 1080. Впечатляет, не правда ли? Добавим, что при переходе в 2D-режим частота процессора падает до 139 МГц одновременно со снижением напряжения с 1,062 В до 0,625 В.
Ещё одним отличием GeForce GTX 1070 от GeForce GTX 1080 является видеопамять. Вероятно, чтобы сделать GTX 1070 более доступной по стоимости, NVIDIA решила не наделять данную модель новым типом высокоскоростной памяти GDDR5X, а оснастила видеокарту привычной GDDR5 объёмом 8 Гбайт. В эталонных версиях GeForce GTX 1070 используются FCFBGA-микросхемы Samsung с маркировкой K4G80325FB-HC25.
Теоретическая эффективная частота таких чипов составляет 8000 МГц, поэтому даже на сравнительно узкой 256-битной шине память способна обеспечить пропускную способность 256,3 Гбайт/с. Это на 8,8 % больше, чем у эталонных GeForce GTX 970 (224,4 Гбайт/с), и на 20 % меньше, чем у GeForce GTX 1080 (320,3 Гбайт/с). Напомним, что в видеокартах с архитектурой графических процессоров «Паскаль» используются новые алгоритмы сжатия данных, которые способны дополнительно сэкономить до 20 % полосы пропускания, поэтому фактическая разница в пропускной способности памяти GeForce GTX 1070 и GeForce GTX 970 должна быть выше. Добавим, что в 2D-режиме частота памяти снижается до 810 эффективных мегагерц.
Последняя доступная на момент подготовки статьи версия GPU-Z уже частично знакома с характеристиками только что вышедшей видеокарты.
В то же время считывать BIOS и отображать ASIC GPU GeForce GTX 1070 она пока не способна.
⇡#Cистемы охлаждения – эффективность и уровень шума
Система охлаждения эталонной версии видеокарты NVIDIA GeForce GTX 1070 является точной копией кулера GeForce GTX 1080 (неожиданно, правда?), и при этом она претерпела минимальные изменения в сравнении с кулерами референсных версий GeForce GTX 980 Ti или GTX 980.
Это по-прежнему кулер с массивным радиатором графического процессора, радиальным вентилятором, прокачивающим воздух через этот радиатор, небольшим радиатором в задней части платы и стальной основой, отвечающей за охлаждение чипов памяти и элементов силовых цепей.
В основании радиатора графического процессора находится отдельная испарительная камера, контактирующая только с графическим процессором через термопасту серого цвета.
С торца кулера, через который выбрасывается нагретый воздух, видны рёбра и плоская тепловая трубка, дополнительно снимающая тепловую нагрузку с видеокарты.
Скорость вращения вентилятора регулируется автоматически ШИМ-методом в диапазоне от 1000 до 4100 об/мин (по данным мониторинга).
Для проверки температурного режима работы видеокарты NVIDIA GeForce GTX 1070 в качестве нагрузки мы использовали пять циклов теста весьма ресурсоёмкой игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560 × 1440 пикселей с анизотропной фильтрацией уровня 16х и активацией MSAA-сглаживания степени 4x.
Для мониторинга температур и всех прочих параметров применялись программа MSI Afterburner версии 4.3.0 Beta 3 и утилита GPU-Z версии 0.8.8. Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при средней комнатной температуре 25 градусов Цельсия.
Прежде всего мы проверили температурный режим работы видеокарты при полностью автоматической регулировке скорости вентилятора, и вот какие результаты получили.
Автоматический режим (1050
Как видим, пиковая температура ядра в таком режиме работы видеокарты по ходу тестирования достигла 85 градусов Цельсия, то есть той же отметки, что и на эталонной GeForce GTX 1080. Однако разница всё-таки есть, и заключается она в скорости вращения вентилятора кулера, которая на GeForce GTX 1070 увеличилась до 2460 об/мин, тогда как у GeForce GTX 1080 повышалась до 2700 об/мин. Иначе говоря, референсная GeForce GTX 1070 в 3D-режиме работает немного тише GeForce GTX 1080 (но вовсе не тихо и даже не комфортно). Кроме температурного режима работы видеокарты, на графике мониторинга выделим частоту работы графического процессора, которая в начале тестирования на условно «холодной» видеокарте в 3D-режиме достигала 1886 МГц, а затем постепенно снизилась до 1797 МГц. Логично, что чем эффективнее будет охлаждаться GeForce GTX 1070, тем на более высокой частоте сможет работать её графический процессор.
Наглядно демонстрирует последнее утверждение следующее тестирование температурного режима NVIDIA GeForce GTX 1070 при максимально возможной скорости вентилятора кулера.
Максимальная скорость (4080 об/мин)
При скорости вентилятора почти 4100 об/мин температура графического процессора не превысила отметку 64 градуса Цельсия, а его частота держалась у 1848 МГц. Учитывая существенную разницу в эффективности референсных кулеров NVIDIA GeForce GTX и оригинальных систем охлаждения производителей, можно с уверенностью утверждать, что появление на рынке одновременно тихих и холодных GeForce GTX 1070 не за горами.
⇡#Оверклокерский потенциал (блицтест)
Поскольку на тесты GeForce GTX 1070 нам было отведено всего двое суток, то детальное и всестороннее изучение оверклокерского потенциала этой модели видеокарты провести было попросту невозможно. Поэтому в сегодняшней статье пришлось ограничиться лишь кратким блицтестированием разгона GTX 1070, а в последующих материалах эта тема будет изучена в полном объёме.
Итак, для проверки оверклокерского потенциала NVIDIA GeForce GTX 1070 мы увеличили предел по питанию на максимально возможные 112 %, температурный предел – до 92 градусов Цельсия, а также не стали полагаться на автоматическую регулировку скорости вентиляторов, зафиксировав её на 85 % мощности, или примерно 3400 об/мин. Напряжение на графическом процессоре не изменялось. С такими настройками к базовой частоте GPU без потери стабильности и появления дефектов изображения удалось добавить 165 МГц, или 11 %, а частоту памяти увеличить на 1240 МГц, или 15,5%.
Отметим, что отдельные тесты эталонная GeForce GTX 1070 проходила и при плюс 195 МГц по ядру, но стабильна была не везде. В результате частоты разогнанной видеокарты составили 1671-1848/9244 МГц, а по данным мониторинга при тестах температурного режима разогнанной видеокарты частота ядра увеличивалась до 2037 МГц.
Как видим, при высокой скорости штатной «турбины» кулера температуру графического процессора вполне удаётся удержать «в узде» даже при разгоне, однако о низком уровне шума говорить при этом не приходится.
⇡#Тестовая конфигурация, инструментарий и методика тестирования
Тестирование производительности видеокарт было проведено в закрытом корпусе на системе следующей конфигурации:
- системная плата: ASUS Sabertooth X79 (Intel X79 Express, LGA2011, BIOS 4801 от 28.07.2014);
- центральный процессор: Intel Core i7-3970X Extreme Edition 3,5/4,0 ГГц (Sandy Bridge-E, C2, 1,1 В, 6 × 256 Kбайт L2, 15 Мбайт L3);
- система охлаждения CPU: ARCTIC Liquid Freezer 240 (4 × 1100 об/мин);
- термоинтерфейс: ARCTIC MX-4;
- оперативная память: DDR3 4 × 8 Гбайт G.SKILL TridentX F3-2133C9Q-32GTX (X.M.P. 2133 МГц, 9-11-11-31, 1,6 В);
- видеокарты:
-
8 Гбайт 1607-1734(1898)/10008 МГц; 6 Гбайт 1000-1076(1189)/7012 МГц;
- NVIDIA GeForce GTX 1070 8 Гбайт 1506-1683(1886)/8008 МГц; 4 Гбайт 1050/1000 МГц;
- Inno3D iChill GeForce GTX 980 Ultra HerculeZ X4 Air Boss 4 Гбайт 1126-1227/7000 МГц (снижены до номинальных для GTX 980); 4 Гбайт 1050-1178/7012 МГц (GTX970-DCMOC-4GD5);
В первую очередь, мы сравнили NVIDIA GeForce GTX 1070 с эталонными версиями NVIDIA GeForce GTX 1080 и NVIDIA GeForce GTX 980 Ti.
Кроме того, мы включили в тестирование оригинальную Inno3D iChill GF GTX 980 Ultra HerculeZ X4 Air Boss на приведённых к номинальным для GeForce GTX 980 частотах и компактную ASUS GeForce GTX 970 DC Mini — как модель, которую GeForce GTX 1070 собой заменяет.
Из видеокарт на графических процессорах AMD в тестирование включена SAPPHIRE NITRO Radeon R9 FURY 4 Гбайт.
Ввиду очень серьёзных ограничений по времени тестирования, все участники тестов были проверены только на номинальных частотах. В следующих обзорах оригинальных моделей GeForce GTX 1070 и GTX 1080, коих, мы надеемся, будет очень много, мы обязательно уделим внимание тестированию при разгоне. Добавим, что значение Power Limit на всех видеокартах было выставлено на максимум.
Для снижения зависимости производительности видеокарт от скорости платформы 32-нм шестиядерный процессор при множителе 48, опорной частоте 100 МГц и активированной на уровень Ultra High функции Load-Line Calibration был разогнан до 4,8 ГГц с повышением напряжения в BIOS материнской платы до 1,385 В.
Технология Hyper-Threading активирована. При этом 32 гигабайта оперативной памяти функционировали на частоте 2,133 ГГц с таймингами 9-11-11-20_CR1 при напряжении 1,6125 В.
Тестирование, начатое 28 мая 2016 года, было проведено под управлением операционной системы Microsoft Windows 10 Professional со всеми обновлениями на указанную дату и с установкой следующих драйверов:
- чипсет материнской платы Intel Chipset Drivers – 10.1.1.18 WHQL от 04.04.2016;
- Intel Management Engine Interface (MEI) – 11.0.5.1192 WHQL от 04.05.2016;
- драйверы видеокарт на графических процессорах NVIDIA – GeForce 368.13 beta для GTX 1080, GeForce 368.19 beta для GTX 1070 и GeForce 368.22 WHQL от 23.05.2016 для остальных NVIDIA-карт;
- драйверы видеокарт на графических процессорах AMD – AMD Radeon Software Crimson 16.5.3 WHQL от 24.05.2016.
В силу ограничений монитора производительность видеокарт была проверена в разрешениях 1920 × 1080 и 2560 × 1440 пикселей. Для тестов использовались два режима качества графики: Quality + AF16x – качество текстур в драйверах по умолчанию с включением анизотропной фильтрации уровня 16х и Quality + AF16x + MSAA 4х(8х) с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. В отдельных играх в силу специфики их игровых движков были использованы иные алгоритмы сглаживания, что будет указано далее в методике и на диаграммах. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если же данные настройки в играх отсутствовали, то параметры изменялись в панели управления драйверов Crimson или GeForce. Там же была принудительно отключена вертикальная синхронизация (V-Sync). Кроме указанного, никаких дополнительных изменений в настройки драйверов не вносилось.
Видеокарты были протестированы в двух графических тестах и в пятнадцати играх, обновлённых до последних версий на дату начала подготовки материала. Список тестовых приложений выглядит следующим образом (игры и далее результаты тестирования в них расположены в порядке их официального выхода):
- 3DMark (2013) (DirectX 9/11) – версия 2.0.2067, тестирование в сценах Cloud Gate, Fire Strike, Fire Strike Extreme и Fire Strike Ultra;
- Unigine Valley Bench (DirectX 11) – версия 1.0, максимальные настройки качества, AF16x и (или) MSAA 8x, разрешение 1920 × 1080 и 2560 × 1440 пикселей;
- Crysis 3 (DirectX 11) – версия 1.3.0.0, все настройки качества графики на максимум, степень размытости средняя, блики включены, режимы с FXAA и с MSAA 4x, двойной последовательный проход заскриптованной сцены из начала миссии Swamp продолжительностью 105 секунд;
- Metro: Last Light (DirectX 11) – версия 1.0.0.15, использовался встроенный в игру тест, настройки качества графики и тесселляция на уровне Very High, технология Advanced PhysX в двух режимах тестирования, тесты с SSAA и без сглаживания, двойной последовательный прогон сцены D6;
- Company of Heroes 2 (DirectX 11) – версия 4.0.0.21375, двойной последовательный прогон встроенного в игру теста при максимальных настройках качества графики и физических эффектов;
- Battlefield 4 (DirectX 11) – версия 1.2.0.1, все настройки качества графики на Ultra, двойной последовательный прогон заскриптованной сцены из начала миссии TASHGAR продолжительностью 110 секунд (для видеокарт на GPU AMD использовался API Mantle);
- Thief (DirectX 11) – версия 1.7 build 4158.21, настройки качества графики на максимальный уровень, технологии Paralax Occlusion Mapping и Tessellation активированы, двойной последовательный прогон встроенного в игру бенчмарка (для видеокарт на GPU AMD использовался API Mantle);
- Sniper Elite III (DirectX 11) – версия 1.15a, настройки качества на уровне Ultra, V-Synс отключён, тесселяция и все эффекты активированы, тесты с SSAA 4x и без сглаживания, двойной последовательный прогон встроенного в игру бенчмарка (для видеокарт на GPU AMD использовался API Mantle);
- Middle-earth: Shadow of Mordor (DirectX 11) – build 1951.27, все настройки качества вручную выставлены на максимальный и Ultra-уровень, тесселяция и глубина резкости активированы, не менее двух последовательных прогонов встроенного в игру бенчмарка;
- Grand Theft Auto V (DirectX 11) – build 678, настройки качества на уровне Very High, игнорирование предложенных ограничений включено, V-Synс отключена, FXAA активировано, NVIDIA TXAA выключено, MSAA для отражений выключено, мягкие тени NVIDIA/AMD;
- DiRT Rally (DirectX 11) – версия 1.1, использовался встроенный в игру тест на трассе Okutama, настройки качества графики на максимальный уровень по всем пунктам, Advanced Blending – On; тесты с MSAA 8x и без сглаживания;
- Batman: Arkham Knight (DirectX 11) – версия 1.6.2.0, настройки качества на уровне High, Texture Resolutioin normal, Anti-Аliasing on, V-Synс отключена, тесты в двух режимах – с активацией двух последних опций NVIDIA GameWorks и без них, двойной последовательный прогон встроенного в игру теста;
- Tom Clancy’s Rainbow Six: Siege (DirectX 11) – версия 3.1, настройки качества текстур на уровне Very High, Texture Filtering – Anisotropic 16X и прочие максимальные настройки качества, тесты с MSAA 4x и без сглаживания, двойной последовательный прогон встроенного в игру теста;
- Rise of the Tomb Raider (DirectX 12) – версия 1.0 build 647.2_64, все параметры на уровень Very High, Dynamic Foliage – High, Ambient Occlusion – HBAO+, тесселяция и прочие методики улучшения качества активированы, по два цикла теста встроенного бенчмарка (сцена Geothermal Valley) без сглаживания и с активацией SSAA 4.0;
- Far Cry Primal (DirectX 11) – версия 1.3.3, максимальный уровень качества, текстуры высокого разрешения, объёмный туман и тени на максимум, встроенный тест производительности без сглаживания и с активацией SMAA;
- Tom Clancy’s The Division (DirectX 11) – версия 1.2, максимальный уровень качества, все параметры улучшения картинки активированы, Temporal AA – Supersampling, режимы тестирования без сглаживания и с активацией SMAA 1X Ultra, встроенный тест производительности, но фиксация результатов FRAPS;
- Hitman (DirectX 12) – версия 1.1.2, встроенный тест при настройках качества графики на уровне «Ультра», SSAO включено, качество теней «Ультра», защита памяти отключена.
Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1 %. Если отклонения прогонов тестов превышали 1 %, то тестирование повторялось ещё как минимум один раз, чтобы получить достоверный результат.
Результаты тестов производительности
На диаграммах результаты тестирования видеокарт на графических процессорах NVIDIA выделены зелёной заливкой, а единственная видеокарта на графическом процессоре AMD отражена характерным для данного производителя красным цветом. Для выделения показателей NVIDIA GeForce GTX 1070 мы выбрали тёмно-бирюзовый цвет. Добавим, что на диаграммах в каждом режиме качества результаты тестов отсортированы сверху вниз в порядке убывания стоимости видеокарт.
В данном разделе вашему вниманию будут представлены лишь результаты тестирования видеокарт на диаграммах, а их анализ мы проведем по сводным диаграммам в следующем разделе статьи. Добавим, что для новых игр, недавно включённых в тестирование, дополнительно приведены детальные настройки качества.
Энергопотребление видеокарт AMD Radeon и NVIDIA GeForce
При покупке новой видеокарты важно обратить внимание на её энергопотребление. Особое внимание нужно обратить на энергопотребление видеокарты при апгрейде имеющегося компьютера. Так как цены на видеокарты сравнительно с другими комплектующими компьютера одни из самых высоких, мы не всегда берем в расчёт приобретать ещё и более мощный блок питания.
Информация взята из официальных источников NVIDIA и AMD . Энергопотребление видеокарты указано в пиковом значении при максимальной нагрузке. Естественно, что эта величина не будет постоянной, поскольку все современные видеокарты имеют режим энергосбережения.
В таблице указаны рекомендованные компанией NVIDIA и линейки Radeon (от компании AMD ) системные требования по питанию, то есть рекомендуемая мощность блока питания для компьютера с определенной видеокартой.
Однако, если вы планируете «разгон» системы, не забудьте про необходимый запас мощности.