Что лучше gtx 1060 или gtx 1080
Перейти к содержимому

Что лучше gtx 1060 или gtx 1080

  • автор:

Sorry, you have been blocked

This website is using a security service to protect itself from online attacks. The action you just performed triggered the security solution. There are several actions that could trigger this block including submitting a certain word or phrase, a SQL command or malformed data.

What can I do to resolve this?

You can email the site owner to let them know you were blocked. Please include what you were doing when this page came up and the Cloudflare Ray ID found at the bottom of this page.

Cloudflare Ray ID: 8194b565df4f4119 • Your IP: Click to reveal 45.84.122.38 • Performance & security by Cloudflare

NVIDIA GeForce GTX 1060 6 GB против NVIDIA GeForce GTX 1080

Что лучше: GeForce GTX 1060 6 GB на 6 GB (GDDR5) или GeForce GTX 1080 на 8 GB (GDDR5)? Можно узнать, прочитав наше сравнение этих десктопных видеокарт в играх и бенчмарках.

Общие отличия

  • Тепловыделение (TDP) меньше на 50%
  • Больше объем памяти (8 GB vs 6 GB)
  • Больше пропускная способность памяти (320 GB/s vs 192.2 GB/s)
  • Мощнее своего конкурента в среднем на 49.3 %
  • Больше ширина шины памяти (256 Bit vs 192 Bit)
  • Больше скорость текстурирования (277.3 vs 136.7)

Сравнение в бенчмарках

С помощью данного бенчмарка видеокарты проверяются 4 тестами, используя версии DirectX (9, 10, 11, 12). На 12 версии по возможности «грачифеский чип» проверяется и в 4K разрешении. Также проводится еще несколько тестов с помощью DirectCompute. В данном сравнении победила видеокарта NVIDIA GeForce GTX 1080. Она быстрее конкурента на 49.3 %.

Производительность в играх

GeForce GTX 1060 6 GB подходит под 95.6 % минимальных и 72 % рекомендуемых системных требований игр, которые есть у нас на сайте.

GeForce GTX 1080 подходит под 98.9 % минимальных и 86.7 % рекомендуемых системных требований игр, которые есть у нас на сайте.

Сравнение базовых характеристик

Сравните объемы памяти у видеокарт, частоту ядра, TDP (тепловыделение) и другие характеристики, которые в основном отвечают за производительность видеокарты.

Основные характеристики

NVIDIA GeForce GTX 1060 6 GB NVIDIA GeForce GTX 1080
Тип памяти GDDR5 GDDR5
Объем памяти 6 GB 8 GB (+33.3%)
Пропускная способность памяти 192.2 GB/s 320 GB/s (+66.5%)
Пропускная способность — важный фактор производительности видеокарты. Данная величина зависит от частоты памяти (MHz) и ширины шины памяти. Чем выше эти два параметра, тем больше будет пропускная способность.
Частота памяти 8000 MHz 10 GB/s
Ширина шины памяти 192 Bit 256 Bit (+33.3%)
Базовая частота ядра 1506 MHz 1607 MHz
Максимальная тактовая частота 1708 MHz 1733 MHz
Скорость текстурирования 136.7 277.3 (+102.9%)
Энергопотребление 120 W (-50%) 180 W
При больших нагрузках на видеокарту и разгоне, энергопотребление (TDP) может увеличиваться.
PCI Express PCIe 3.0 x16 PCIe 3.0 x16

Дополнительно

NVIDIA GeForce GTX 1060 6 GB NVIDIA GeForce GTX 1080
Технологический процесс 16 nm 16 nm
Длина 250 mm 10.5"
Дополнительные разъемы питания 1x 6-pin 8-pin
DirectX 12 12
Шейдерная модель 6.4 6.4
OpenGL 4.6 4.5
OpenCL 1.2 1.2
Vulkan 1.2.131 1.2.131
CUDA 6.1 +

Победитель

После проведенных тестов определился победитель. В совокупности всех результатов он лучше своего конкурента.

Вся геймерская рать: видеокарты GTX 1050, 1060, 1070 и 1080 в сравнении

Платить меньше и получать больше почему-то считается русской национальной идеей. Выражается она в разных формах, но одно из ярчайших проявлений сегодня, разумеется, выбор компьютерного «железа». Наверное, нигде в мире не продаётся так много процессоров Intel K-серии (с разблокированным множителем), как у нас — ну любим мы, чтоб без ограничений да выжимать все соки! Менталитет. Подтверждать на практике будем с помощью четырёх видеокарт от ASUS. Все новые NVIDIA (GTX 1050Ti, 1060, 1070 и 1080) заняли по одному ценовому сегменту и убили конкурентов просто потому, что они чертовски хороши. Но могут ли они стать ещё лучше?

Прогресс за 10 лет

Лет 10-15 назад разгон центрального процессора был вообще практически единственным, что подразумевалось под словом «разгон»: гнать видеокарты особо смысла не было, а вот выжать из какого-нибудь тщедушного Celeron лишних 300-600 МГц, нарастив производительность до уровня его старшего брата, который стоил вдвое дороже — это да. Сегодня ситуация противоположная. Если взять самый первый Core i7 и сравнить его в играх с современным, разница будет в районе 20-25%. А вот между графическими ускорителями из 2007-го и 2015-2016 годов — самая настоящая пропасть. От 500 МГц на ядре и 256-512 МБ памяти мы дошли почти до 2 ГГц и 6-8 ГБ, и это если не учитывать и возросшую производительность GPU на уровне архитектуры, и увеличившееся количество исполнительных блоков.

Просто сравните эти цифры. Восемь лет назад мечтой всех игроков была неприлично дорогая (от $800) 8800 Ultra. Это первая NVIDIA с поддержкой DirectX 10, с новой, унифицированной архитектурой ядра, поддержкой PhysX, CUDA и подключением к современному PCI-Express x16. Если взять сравнимые показатели производительности, то они будут выглядеть примерно так:

Видеокарта

Максимальная скорость закраски, Гпикс/с

Максимальная скорость выборки текстур, Гтекс/с

Пропускная способность памяти, ГБ/с

Производительность в 32-битных числах с плавающей точкой, Гфлопс

Грубая вычислительная сила выросла в скромные 15 раз: считайте, росла вдвое каждый год. Сравните с 60 Гфлопс у i7-920 и

110 Гфлопс у флагманского i7-6700K, притом что 70% разницы обеспечило наращивание тактовой частоты, а в играх двукратного прироста не наблюдается. Теперь вы понимаете, почему в игрушках разгон видеокарты стал куда важнее, чем разгон процессора?

За чей счёт банкет?

Чтобы понять, благодаря чему осуществляется разгон и откуда вообще берутся «бесплатные» мегагерцы, нам с вами надо погрузиться в историю и технологии производства микропроцессоров. Для достижения более высоких частот, более плотного расположения транзисторов и снижения теплоотдачи производители регулярно уменьшают техпроцесс производства. Физика накладывает определённые ограничения на подобные манипуляции: начиная с 200 нанометров разработчикам приходилось выполнять двойную экспозицию, так как получить изображение меньше ½ длины волны просто невозможно.

NVIDIA

Современные чипы делают путём восьмикратной экспозиции одной и той же пластины. Сами понимаете, не исключено, что итог окажется неидеальным. Так как чипы производятся не по одному, а большими партиями на единой пластине, качество каждого конкретного кристалла может отличаться. Из вот этого несовершенства и массовости и рождается разгонный потенциал.

Чипы проходят проверку, лучшие идут во флагманские продукты, а те, что похуже, проверяются на более низких частотах и с меньшим количеством рабочих блоков. Так просто выходит дешевле, чем выбрасывать условно хорошие микросхемы, которые не годятся на 100% во флагманский продукт. Именно поэтому топовые «титаны» стоят сумасшедших денег: установленные там чипы близки к идеалу, на них не пришлось отключать модули или снижать частоты, а значит, их пришлось отбирать чуть ли не вручную. Мы же с вами можем извлечь из этого выгоду, тем более что в текущем году есть отличный повод обновиться.

Новое поколение NVIDIA

2016-й уже на исходе, но его вклад в игроиндустрию останется с нами надолго. Во-первых, видеокарты из красного лагеря получили неожиданно удачное обновление в среднем ценовом диапазоне, а во-вторых, NVIDIA в очередной раз доказала, что не зря занимает 70% рынка. Maxwell были хороши, GTX 970 по праву считалась одной из лучших карт за свои деньги, но Pascal — совсем другое дело. Новое поколение (GTX 1080 и 1070) буквально похоронило результаты прошлогодних систем и рынок флагманского подержанного «железа», а младшие линейки (GTX 1060 и 1050) закрепили успех в более доступных сегментах. Владельцы GTX980Ti и прочих Titan горько рыдают: их убер-пушки за много тысяч рублей разом потеряли 50% стоимости и 100% понтов. Сама NVIDIA заявляет, что 1080 быстрее, чем прошлогодний TitanX, 1070 легко «наваляет» 980Ti, а сравнительно бюджетная 1060 сделает больно владельцам всех остальных карточек.

Boost 2.0

С 700-го поколения (Kepler) карты NVIDIA имеют три частоты: пониженную, которая используется для работы в 2D и с низкой нагрузкой, стандартную (base), применяемую в играх, и так называемый boost — автоматический разгон. Разгоняя видеочип, вы плюсуете мегагерцы именно к стандартной частоте, ниже которой видеокарта под нагрузками в 3D-приложениях опускаться не будет. В 10-й серии специальный контроллер может сам «подкинуть дров» и поднять частоту и напряжение на чипе, если температура ядра видеокарты не дошла до критической.

NVIDIA

В сумме Boost 2.0 и ваш собственный разгон (поднятие той оранжевой линии Base Clock на картинке) не должны перегревать видеокарту или выводить её в тот режим, когда на экране появляются артефакты.

Не стоит забывать и про разгон памяти. В GTX 1050, 1060 и 1070 используются модули GDDR5: их тактовая частота для передачи данных умножается на четыре, и каждый 1 МГц разгона незначительно увеличивает скорость передачи инструкций, но даёт ощутимого пинка передаче данных. +200 МГц на панели управления легко превращаются в 800 для данных. 1080 получает ещё больше плюшек от разгона, так как в ней использована дорогая GDDR5X, которая удваивает пропускную способность относительно обычной GDDR5 (хоть и работает на более низкой частоте).

По сумме качеств 10-я серия NVIDIA получилась просто идеальной для дальнейшего разгона: современный техпроцесс, низкое тепловыделение, шустрая память и отличный разгонный потенциал. Осталось грамотно его реализовать.

Лучшие из лучших

В 2016-м при выборе видеокарты помимо основного вопроса «что взять за Х рублей», который попросту решается соотношением ваших хотелок, разрешения дисплея и бюджета, важно выбрать вендора, выпустившего ваш экземпляр видеокарты. Потому что хорошие производители повторно тестируют микросхемы и отбирают самые лучшие для создания бескомпромиссных игровых девайсов. К ним добавляют соответствующего уровня обвязку: цепи питания, память и охлаждение разрабатывают с солидным запасом. Ну а чипы попроще, пойдут, например, в ноутбуки — там частоты ниже и требования не так строги.

ASUS — одна из самых популярных компаний на рынке «железа» и однозначный лидер в плане народной любви, которую тайваньские инженеры заслужили на все сто. Эффективные системы охлаждения, отличный разгонный потенциал и какая-то толика восточной мудрости, рациональности делает эти видеокарты особенными. И линейка видеоплат на новых Pascal готова это подтвердить. Протестированные графические ускорители относятся к двум разным сериям, но все четыре изготовлены на полностью роботизированных линиях, и во всех применены компоненты повышенной прочности Super Alloy Power II.

NVIDIA

Убийца консолей: тест ASUS GTX 1050Ti Expedition

Младшая NVIDIA (без букв Ti) не так интересна, она создана скорее для совсем уж казуальных пользователей. Её удел — это DotA и «Лига Легенд» с «Танками», а вот 1050Ti — зверь совершенно чудесный. «Сердце» видеокарты — чип GP107 — не отбраковка старших видеокарт, а отдельный продукт. Он выпускается по 14-нанометровому техпроцессу на заводе Samsung (старшие чипы имеют чуть более грубую «душевную организацию» в 16 нанометров и производятся на мощностях TSMC) и имеет хорошее соотношение производительности и потребляемой мощности. Компактная карточка обходится 75 Вт питания, которые можно протащить через слот PCI-Express, не добавляя дополнительную «косу» от БП.

NVIDIA

Вычислительные возможности 1050Ti затачивались под разрешение 1080р: считайте, что эта карта — убийца консолей текущего поколения. Хотите наглядный пример? Witcher 3: Blood and Wine. Игра, которая получила более 90% хвалебных отзывов от игровых изданий. Атмосферная сага с жестоким открытым миром, полная сложных выборов, горьких судеб и ужасов средневековья, пропитанная атмосферой нетолерантности и враждебности ко всему, что общество не может осознать в силу своей необразованности. Перенесённая в мир 3D-графики и спецэффектов, история Анджея Сапковского на максимальных настройках выдаёт «киношные» 30 FPS. Ну или консольные, кому как нравится.

NVIDIA

Причём для этого не требуется какой-то зверский конфиг: средненький i5 или AMD FX восьмитысячной серии, 8 ГБ «оперативки» и обычный жёсткий диск. Собственно, примерно такое «железо» и стоит внутри консолей, вот только ни сравнимой графики, ни скорости загрузок и удобства перенастраиваемого управления там нет. Ну, и чтобы развеять любые сомнения: это — результат без разгона.

«Бесплатной» производительности в версии без дополнительного питания почти нет: вы можете назначить ещё 30-40 МГц ядру и выжать от 30 до 100 МГц на памяти видеокарты, в зависимости от удачности экземпляра, но реального повышения счётчика кадров вы не увидите, скорее, создадите «подушку безопасности» для сложных сцен и уменьшите вероятность подтормаживаний. В основном придётся полагаться на автоматический разгон. Версия с дополнительным питанием и более внушительным разгоном предпочтительнее, но если ваша цель — бесшумность, компактность и скромное энергопотребление в 75 Вт, то данный вариант более чем удачен. Добавим к этому особенности, привнесённые в видеокарту ASUS, и перейдем к результатам игровых тестов.

NVIDIA

Итак, у нашей первой подопытной EX-GTX1050TI-O4G на задней панели по одному разъему DVI-D, HDMI 2.0 и DisplayPort, двухвентиляторная система охлаждения и слово Expedition в маркировке. Последнее означает, что данная реализация прошла жёсткое стресс-тестирование, включающее два часа циклических перезагрузок, 15-часовой прогон 3DMark и непрерывную нагрузку самыми тяжёлыми играми в течение 127 часов. Играбельность даже младшего из видеочипов 10-й серии подчёркивают комплектные утилиты: GPU Tweak II для мониторинга и разгона, XSplit Gamercaster для записи и трансляции игрового процесса, — точно такие же, как и в комплекте со всеми старшими моделями.

Результаты тестов в играх

Результаты тестов в играх ASUS EX-GTX1050TI-O4G Expedition c

Королева Full HD: тест ASUS ROG STRIX-GTX1060-O6G-GAMING

Карта GeForce GTX 1060 по праву считается королевой разрешения 1080р. По своим техническим характеристикам она «уделывает» не то что прошлогоднего лидера продаж, GTX 970, но и её родителя с полными 4 ГБ видеопамяти — GTX 980. Версии с 6 и 3 ГБ памяти несколько отличаются по производительности и цене. Младшая — оптимальный выбор для тех, кто не планирует апгрейд до 4K в ближайшем будущем, не требует ультранастроек графики, но хочет иметь уверенный высокий FPS в состязательных играх. Идеальная ситуация для неё — это связка монитора Full HD с G-sync и сетевые шутеры, гонки или MOBA-игры, где важна скорость реакции пользователя. На минуточку, полтора-два года назад у суперфлагмана 780Ti было столько памяти. А производительность новичка выше при вдвое меньшей цене.

Шестигигабайтная версия намного интереснее. У неё нет «бутылочного горлышка» по памяти, которое ограничивало 970 или 980 при игре на высоких разрешениях. На средних настройках её вполне хватит и на 2560×1440, и на 4K. А ещё она показывает Battlefield 1 в Full HD на «ультре», со сглаживанием и вертикальной синхронизацией в стабильных 60 FPS. До 30 просадка только в кат-сценах, но это ребята из EA так накодили.

В случае с видеокартой ASUS ROG STRIX-GTX1060-O6G-GAMING на задней панели находится уже пять видеовыходов: два HDMI, два Display Port и один DVI-D. Точно такой же набор портов у двух старших моделей.

NVIDIA

Видеокарты обладают одинаковой системой охлаждения и защитой на задней стороне платы. То есть карточка очень тонкая, всего два слота в высоту, холодная и длинная. Длиннее прошлогодних 980Ti или TitanX. Так что перед покупкой трижды проверьте свободное место в корпусе: от задней стенки до корзины с жёсткими дисками вам понадобится минимум 30 см, а лучше иметь ещё хоть 5 мм запаса.

NVIDIA

Также в трёх протестированных картах линейки ASUS ROG есть фирменная светодиодная RGB-подсветка AURA, которая может работать синхронно с подсветкой материнской платы, корпуса и периферии (не любых, а только совместимых). Разгоняется карточка более чем охотно: при скромном потреблении в 120 Вт видеокарте доступно 150 по восьмипиновому разъёму напрямую от блока питания и 75 по шине PCI-Express. Никакого энергетического голодания нет и в помине.

NVIDIA

Плюс охлаждение DirectCU III: огромный радиатор и три вентилятора, точь-в-точь такие же, как на 1080, которая почти в полтора раза горячее по спецификациям. Результат потрясающий. Почти 200 МГц по ядру (1873 МГц вместо референсных 1683 МГц) в сумме за счёт собственных модификаций и технологии Boost 2.0, и 10-15% увеличения пропускной способности памяти.

NVIDIA

Правда, догнать 1070 это вам не позволит — там уже совсем другой уровень «железа». Зато GTX 1060 перешагнёт через рубеж 30 FPS в 4K-разрешении на самых сложных сценах в DOOM. На ультранастройках. И останется тихой.

Результаты тестов в играх

1060-chart

Фаворит игрового рынка: тест ASUS ROG STRIX-GTX1070-8G-GAMING

То, что происходило с GTX 970 в прошлом году, несмотря на череду скандалов с «нечестной» памятью сложно назвать иначе, чем «тотальное доминирование». На декабрь 2016 года эти видеокарты — самые популярные в мире, они установлены в 4,9% всех игровых ПК. Так вот, GTX 1070 вполне может повторить этот опыт. Она дьявольски быстра, за неё просят разумные деньги, это входной билет в мир 1080р@144 Гц, 4K-игр на высоких настройках с уверенными 60 FPS или VR. Через полгода после начала продаж GeForce GTX 1070 уже входит в топ-10 самых популярных графических ускорителей по версии Steam.

NVIDIA

Да, на «ультре» в 4K полноценных 60 кадров в секунду получить не выйдет, но так ли вам нужно включать на 100% всякие сложные и дорогие спецэффекты, или достаточно и 80% качества? Зачем вообще включать сглаживание на 4K-мониторе? В конце концов, даже условные «высокие» настройки постобработки (не качества текстур или моделей, а именно спецэффектов) недостижимы для консолей текущего поколения и всех, кто купил в прошлом году 980Ti или TitanX. Разгон ядра на 70-80 МГц, 10-12% по памяти почти не влияют на среднюю частоту GPU, которую вы будете видеть на графиках. В данном случае GTX 1070 использует разгон для балансировки нагрузки и полностью убирает «просадки» по FPS в тяжёлых сценах: в пике частота GPU кратковременно заходила за 2121 МГц (и это при «скромных» 1560 МГц базовой частоты «из коробки»).

NVIDIA

Как только речь заходит о новых проектах, поддержке самых актуальных технологий и разгоне, достижения видеокарт прошлого поколения можно просто забыть. Самое удивительное, что современные ААА-игрушки не теряют визуального шарма при снижении настроек. Да, в кат-сценах и на скриншотах глаз начинает цепляться за мелочи. Но в движении, в процессе… GTA V вышла ещё на PS3 и Xbox 360, пережила апгрейд до HD-текстур, новое поколение консолей и до сих пор живее всех живых на ПК.

NVIDIA

Удивительный мир, яркий и живой, потрясающие закаты, сложнейший расчёт цветного тумана и того, как он перекрашивает рельеф скалистых ущелий и песчаные дюны Сан-Андреса… В 4K, с 50+ кадрами в секунду и длинными тенями от небоскрёбов.

Результаты тестов в играх

NVIDIA

Безоговорочный флагман: тест ASUS ROG STRIX-GTX1080-O8G-GAMING

Игровой лидер без компромиссов. Первая видеокарта, которая готова обеспечить вас стабильными 60 кадрами в секунду на разрешении 4K.

NVIDIA

Называйте её «Молотом Тора» или «Звездой Смерти» — ей наплевать. Лучшее решение для геймера в 2016 году. Эпитеты не нужны. DOOM, ультранастройки, разрешение 5K2K (!) с соотношением сторон 21 к 9 — ей всё нипочём.

NVIDIA

Разгон здесь действует аналогичным для 1070 образом: он не повышает максимальную частоту кадров, а используется ситуативно в «тяжёлых» сценах. Даже весьма скромный результат в +55 МГц к базовой частоте ядра и суровые 220 МГц к памяти (GDDR5X делает из них 1600 МГц эффективной частоты) обеспечивают хороший рост минимального FPS на одних и тех же тестах. А равномерность кадровой частоты куда важнее экстремальных результатов и среднего по больнице.

Результаты тестов в играх

NVIDIA

Итоги

Если вы покупали GTX 970 и до сих пор сидите на разрешении 1080р, возможно, обновлять видеокарту в этом году будет проявлением расточительности — всё же 970-я до сих пор позволяет играть в актуальные игры на высоких настройках с приемлемым фреймрейтом. Через год условная 1170 или 1160 будет «жечь напалмом», и даст ощутимый прирост кадровой частоты, и не так сильно ударит по бюджету. Во всех остальных случаях, будь у вас 980Ti и желание получать только лучшее, древний флагман типа Radeon 7970/GTX 580, который брался «на века», или бюджетная 750Ti, купленная, лишь бы поиграть в заветного «Ведьмака» (хоть на минималках и в 720p) — меняйте при первой возможности. ASUS EX-GTX1050TI-O4G — отличное решение для игр в Full HD на высоких настройках. ASUS ROG STRIX-GTX1060-O6G-GAMING — для бескомпромиссного Full HD, начального VR и игры в 4K-разрешении с «консольным» качеством. ASUS ROG STRIX-GTX1070-8G-GAMING справится с разрешением 1440p и будет уверенно себя чувствовать на 4K и высоких настройках, ну а ASUS ROG STRIX-GTX1080-O8G-GAMING — это ROG и 1080. Дорогу королю!

1080 vs 1060 6 GB

Сведения о типе (для десктопов или ноутбуков) и архитектуре GeForce GTX 1080 и GeForce GTX 1060 6 GB, а также о времени начала продаж и стоимости на тот момент.

Место в рейтинге производительности 84 169
Место по популярности 63 10
Соотношение цена-качество 26.87 3.43
Архитектура Pascal (2016−2021) Pascal (2016−2021)
Графический процессор Pascal GP104 GP106
Тип Десктопная Десктопная
Дата выхода 6 мая 2016 (7 лет назад) 19 июля 2016 (7 лет назад)
Цена на момент выхода 599$ 299$
Цена сейчас 241$ (0.4x) 911$ (3x)

Отношение производительности к цене. Чем выше, тем лучше.

У GTX 1080 соотношение цены и качества на 683% лучше, чем у GTX 1060 6 GB.

Характеристики

Общие параметры GeForce GTX 1080 и GeForce GTX 1060 6 GB: количество шейдеров, частота видеоядра, техпроцесс, скорость текстурирования и вычислений. Они косвенным образом говорят о производительности GeForce GTX 1080 и GeForce GTX 1060 6 GB, но для точной оценки необходимо рассматривать результаты бенчмарков и игровых тестов.

Количество потоковых процессоров 2560 1280
Количество конвейеров CUDA 2560 нет данных
Частота ядра 1607 МГц 1506 МГц
Частота в режиме Boost 1733 МГц 1708 МГц
Количество транзисторов 7,200 млн 4,400 млн
Технологический процесс 16 нм 16 нм
Энергопотребление (TDP) 180 Вт 120 Вт
Максимальная температура 94 °C нет данных
Скорость текстурирования 277.3 136.7
Производительность с плавающей точкой 8,873 gflops 4,375 gflops

Совместимость и размеры

Параметры, отвечающие за совместимость GeForce GTX 1080 и GeForce GTX 1060 6 GB с остальными компонентами компьютера. Пригодятся например при выборе конфигурации будущего компьютера или для апгрейда существующего. Для десктопных видеокарт это интерфейс и шина подключения (совместимость с материнской платой), физические размеры видеокарты (совместимость с материнской платой и корпусом), дополнительные разъемы питания (совместимость с блоком питания).

Шина PCIe 3.0 нет данных
Интерфейс PCIe 3.0 x16 PCIe 3.0 x16
Длина 26.7 см 250 мм
Высота 11.1 см нет данных
Толщина 2 слота 2 слота
Рекомендованный блок питания 500 Ватт нет данных
Дополнительные разъемы питания 8-pin 1x 6-pin
Поддержка SLI + нет данных

Оперативная память

Параметры установленной на GeForce GTX 1080 и GeForce GTX 1060 6 GB памяти — тип, объем, шина, частота и пропускная способность. Для встроенных в процессор видеокарт, не имеющих собственной памяти, используется разделяемая — часть оперативной памяти.

Тип памяти GDDR5X GDDR5
Максимальный объём памяти 8 Гб 6 Гб
Ширина шины памяти 256 бит 192 бит
Частота памяти 10 Гб/с 8000 МГц
Пропускная способность памяти 320 Гб/с 192.2 Гб/с
Разделяемая память

Видеовыходы

Перечисляются имеющиеся на GeForce GTX 1080 и GeForce GTX 1060 6 GB видеоразъемы. Как правило, этот раздел актуален только для десктопных референсных видеокарт, так как для ноутбучных наличие тех или иных видеовыходов зависит от модели ноутбука.

Видеоразъемы DP 1.42, HDMI 2.0b, DL-DVI 1x DVI, 1x HDMI, 3x DisplayPort
Поддержка нескольких мониторов + нет данных
HDMI + +
Поддержка G-SYNC + +

Технологии

Здесь перечислены поддерживаемые GeForce GTX 1080 и GeForce GTX 1060 6 GB технологические решения и API. Такая информация понадобится, если от видеокарты требуется поддержка конкретных технологий.

GPU Boost 3.0 нет данных
VR Ready + +
Ansel + нет данных

Поддержка API

Перечислены поддерживаемые GeForce GTX 1080 и GeForce GTX 1060 6 GB API, включая их версии.

DirectX 12 (12_1) 12 (12_1)
Шейдерная модель 6.4 6.4
OpenGL 4.5 4.6
OpenCL 1.2 1.2
Vulkan 1.2.131 1.2.131
CUDA + 6.1

Тесты в бенчмарках

Это результаты тестов GeForce GTX 1080 и GeForce GTX 1060 6 GB на производительность рендеринга в неигровых бенчмарках. Общий балл выставляется от 0 до 100, где 100 соответствует самой быстрой на данный момент видеокарте.

Общая производительность в тестах

Это наш суммарный рейтинг производительности. Мы регулярно улучшаем наши алгоритмы, но если вы обнаружите какие-то несоответствия, не стесняйтесь высказываться в разделе комментариев, мы обычно быстро устраняем проблемы.

1080 опережает 1060 6 GB на 51% в нашем суммарном рейтинге производительности.

Passmark

Это очень распространенный бенчмарк, входящий в состав пакета Passmark PerformanceTest. Он дает видеокарте тщательную оценку, производя четыре отдельных теста для Direct3D версий 9, 10, 11 и 12 (последний по возможности делается в разрешении 4K), и еще несколько тестов, использующих DirectCompute.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *