Что такое nvidia titan

NVIDIA GTX TITAN — возвращение Kepler’а

Прошло немногим меньше года с тех пор, как NVIDIA представила миру видеоадаптер NVIDIA GTX 680. По сей день она являлась неоспоримым лидером по производительности. Новинка принесла с собой не только заметное увеличение производительности относительно предыдущего поколения (GTX 580), но и явила миру архитектуру Kepler, а также множество новых фич.

И вот спустя год, компания NVIDIA показывает нам новую видеокарту. Вопреки ожиданиям, называется новинка не GTX 780, и не относится к какой либо линейке вообще. Именуется новинка очень просто — NVIDIA GTX TITAN. Вероятно, название должно вызывать у покупателей ассоциации с титанической мощью. Вполне возможно, что так оно и будет. Ответ на это мы узнаем, проведя тестирование. А для начала я предлагаю вспомнить, с чего все начиналось и что такое Kepler.

Архитектура Kepler

На базе архитектуры Kepler построен GPU NVIDIA GK104, который является сердцем видеокарты NVIDIA GTX 680.

Kepler является развитием архитектуры Fermi, на которой работали видеокарты GTХ 580 и младше. Главное отличие на тот момент заключалось в уменьшении техпроцесса с 40 до 28 нм. Конечно же, на этом изменения не закончились. На схеме мы видим четыре кластера обработки графики (Graphics Processing Clusters), в каждом из которых «живёт» по два SMX (Next Generation Streaming Multiprocessors), они же потоковые процессоры. В общей сложности у нас получается восемь SMX. Каждый SMX несёт в себе 192 CUDA-ядра. Таким образом, общее количество ядер достигало отметки в 1536 единиц. По сравнению с предыдущим поколением, это дало трёхкратное увеличение мощности.

Как я и говорил чуть выше, GTX 680 принесла с собой не только новый GPU, но и новые технологии. Среди них был PCI-E, выросший до версии 3.0. Это позволило увеличить полосу пропускания до 8 GT/s (Гигатранзакций в секунду). На тот момент это не принесло существенного увеличения производительности, и, устанавливая видеокарту в материнскую плату с разъёмом PCI-E 2.0, пользователь практически не терял производительности — а если и терял, то это были считанные проценты, которые ни на что не влияют, кроме количества «попугаев» в бенчмарках. Однако то, что тогда было практически бесполезным, теперь придётся очень кстати. Если новинка действительно заметно мощнее своего предшественника, то увеличенная пропускная способность интерфейса PCI-E очень даже пригодится.

Также нам показали технологию NVIDIA GPU Boost, которая автоматически увеличивает тактовую частоту видеопроцессора, основываясь на показаниях датчиков. Если видеокарта не работала на пределе, не перешагивала через порог TDP, то она самостоятельно увеличивала тактовую частоту, что обеспечивало прирост производительности без вмешательства пользователя. Изначально технология вызвала множество критики и недовольств в свой адрес, особенно у профессиональных оверклокеров. Однако на сегодняшний день все уже привыкли к её существованию и лично мне она даже нравится. Видеокарта сама определяет безопасный потолок, до которого можно увеличивать частоту, не боясь зависаний и перезагрузок в самый интересный момент — это здорово.

Помимо этого, с выходом видеокарты NVIDIA GTX 680 появилась возможность подключать до четырёх мониторов к одной видеокарте. Раньше пришлось бы использовать две видеокарты. Эта возможность пригодится вам, если вы любите поиграть, не отрываясь от работы (на верхний дисплей можно вытащить необходимые вам окна), или просто любите активно поработать.

Источник

Время титанов возвращается! Знакомимся с видеокартой NVIDIA GeForce GTX Titan

Оглавление

Вступление

И пока преданные поклонники NVIDIA ждали выхода настоящего флагмана из серии «А посмотрите, какого я размера», видеокарты обоих вендоров приобрели очень странные по сравнению с предыдущими поколениями ценники. То, что еще пару лет назад оценивалось суммой до 400 долларов, стало предлагаться за 400-500 долларов. Свою роль здесь сыграло множество факторов.

реклама

Первые предпосылки о существовании GK110 появились в середине 2012 года, именно тогда всплыли некоторые данные, говорящие о скором выходе старшего решения. Вот только суждено ему было стартовать совсем в другом амплуа, не в игровом, а в сфере математических вычислений, в кругу моделей, именуемых как Tesla. На базе большого Kepler возникла целая серия профессиональных карт K20. Характеристики, интересующие большую часть пользователей, пусть и выглядели устрашающе для конкурента, но игрового применения не получили.

Что ж, тем проще было выбирать среди присутствующих на рынке видеокарт, разница в производительности которых зачастую ограничивалась значением в 10-15%. Примерно такой вот цифрой и можно охарактеризовать средний разброс между Radeon HD 7970 и GeForce GTX 680. Одна была чуть шумнее и прожорливее, но при этом быстрее, а вторая дороже и немного медленнее. Обе они хорошо подходили как для разгона, так и для современных игр, которые в последнее время не старались соответствовать духу времени. Отсюда и несерьезные на сегодняшний день технические требования. Особенно если учесть, что львиная доля пользователей как раз перешла с мониторов с разрешением меньше 1300 пикселей по ширине на модели с 1920.

Впрочем вернемся к Titan. Да, это новое название видеокарты для игроманов на GK110. Я продолжу с немного пугающей цифры – 35 000 рублей. Именно столько просит компания за свою разработку. Стоит отметить, что это рекомендованный производителем ценник, с которого, скорее всего, первые «сливки» захотят снять розничные продавцы. Думаю, к лету стоимость GeForce GTX 690 и GeForce GTX Titan сравняется.

Технические характеристики

Архитектура GK110

Ядро GK110 состоит из 15 SMX движков, каждый из которых наполнен вычислительными устройствами – Cuda-ядрами.

Если подробнее, то графический процессор GK110 содержит 192 FP32 CUDA-ядра и 64 FP64, 64 килобайта L1 кэша, 65 тысяч 32-битных регистров и 16 текстурных блоков. SMX движки состыкованы с 6 блоками, состоящими из 8 ROP каждый, 256 килобайтами L2 кэша и подсоединены к 64-битным контроллерам памяти. Число «15» не окончательное, в розничный сектор попали видеокарты с активированными 14 SMX. Как ни печально, но желание удержать энергопотребление на определенном уровне вносит свои коррективы в финальный продукт. Всего же в GK110 насчитывается 2688 CUDA-ядер, способных производить вычисления с одинарной точностью.

реклама

На тот случай, если вам захочется исполнить команды с двойной точностью, новый продукт NVIDIA располагает 896 FP64 ядрами. В дополнение к мощной вычислительной части у видеокарты присутствует 224 текстурных блока и 48 блоков ROP. В сущности, никаких изменений по сравнению с Tesla K20X. Желающие получить Hyper-Q и Dynamic Parallelism за 35 000 рублей могут не задерживаться, а проходить прямо к Tesla.

За теоретической частью прячется суровая реальность. Частоты в угоду повсеместно внедряемой схеме снижения энергопотребления пришлось ограничить на уровне 8хх МГц. Что, с одной стороны, несколько меньше 1000 МГц у GTX 680, а с другой – не настолько мало, чтобы сильно выделяться среди семейства GeForce GTX. Что касается памяти, то золотой стандарт NVIDIA в 6 ГГц полностью соблюден. И приведу еще один интересный факт. На самом деле сейчас вполне можно было бы обойтись и объемом видеопамяти в 3 Гбайта, но новому флагману это просто не к лицу. Поэтому видеокарта получила 6 Гбайт, набранных двадцатью четырьмя микросхемами общей пропускной способностью в 288 Гбит/с.

На закуску осталось поговорить об энергопотреблении. Будь на дворе 2006-2008 год, то и 450 Вт мало кого удивило бы. Но в NVIDIA выбирали из двух вариантов. Приемлемый уровень – GeForce GTX 690 и 300 Вт, идеальный уровень – GeForce GTX 680 и 195 Вт. Здесь стоило бы сделать остановку и рассказать подробнее о 195 Вт у GeForce GTX 680. Это практически потолок энергопотребления на эталонной карте со 132% запасом Power Target. В жизни не все производители соблюдают энергетическую диету и часто превышают рекомендованный лимит. А GeForce GTX Titan умещается в 250 Вт, что очень скромно. И даже такой искусственный барьер позволяет разгонять видеокарту, впрочем, об этом речь пойдет чуть позже.

Итак, GeForce GTX Titan это в первую очередь игровая карта для настоящих энтузиастов, готовых выложить 35 000 рублей. Она едва ли не единственная, кто может не только быстро воспроизводить игровые картинки, но и считать. Напомню, что GK104 это игровое ядро с формальной поддержкой FP64. Скорость выполнения команд с двойной точностью у него ограничена 1/64 от полного такта, а у GK110 – 1/3, что дает ей 1.3 Тфлопса. Фактически, Titan претендует на роль младшей карты для вычислений. Ее нельзя расценивать с точки зрения «производительность/цена». Такой подход в корне убьет всю оставшуюся привлекательность, а она, поверьте мне, в ней есть.

Только сегодня и сейчас NVIDIA вправе говорить о выпуске самой быстрой однопроцессорной видеокарты, но лишь до тех пор, пока у конкурента нет аналога. Правда, я сильно сомневаюсь, что многим она окажется по карману, и еще меньшее число людей будет использовать ее возможности в полной мере. Вот и AMD не считает GeForce GTX Titan конкурентом.

Естественно, сегмент ультра дорогих моделей в разы меньше массового сектора, а идентичной производительности в играх проще достичь покупкой GeForce GTX 690 или сооружением связки SLI/Crossfire. С другой стороны, NVIDIA позволила себе подогреть интерес рынка к своим продуктам, так что можно считать Titan аналогом Veyron в мире видеокарт. Вы подумали о цене и ограниченности тиража? Неправильно, производитель уверяет, что не пройдет и двух недель с момента анонса, как Titan появится в магазинах и любой желающий сможет его приобрести.

Новые возможности

С анонсом архитектуры Kepler компания NVIDIA внедрила ряд дополнительных возможностей. В частности теперь можно задействовать адаптивный VSync. Суть его работы заключается в том, чтобы обеспечить максимально комфортное воспроизведение картинки в играх.

После активации адаптивного VSync максимальное число кадров в секунду не превышает частоту развертки монитора, но здесь важнее второй момент. Цикл падения производительности становится плавным, что приводит к отсутствию дерганой картинки. Усовершенствование заключается в том, что теперь доступна функция настройки ограничения кадров до любого значения, вплоть до 120.

Технология 3Way SLI позволяет подключить до трех GeForce GTX Titan в одной системе. На сегодня такой вариант наиболее производительный среди всего ассортимента предложений NVIDIA.

Разгон

Здесь наибольший интерес у пользователей вызовет новая технология GPU Boost 2.0. Пока она будет доступна только обладателям видеокарты GeForce GTX Titan, но я почти уверен, что позже следует ожидать ее появления и в будущих новинках NVIDIA. Стоит кратко напомнить, как пользоваться GPU Boost 1.0.

Встроенный алгоритм управления частотой и напряжением графического процессора работает по своим стандартам, и разгон видеокарт NVIDIA GeForce осуществляется несколько в ином формате. Обращаю ваше внимание, что сейчас в руки пользователей попадает несколько переменных.

Первая – предельное энергопотребление, стандартная формулировка которого обозначается цифрой 100% или

xxx Вт для ускорителя целиком (может варьироваться в зависимости от экземпляра, в основном завышенное базовое значение используется в разогнанных с завода моделях). Отныне заявленная номинальная частота – это базовая частота, ниже которой графическое ядро не опускается ни при каких нагрузках в типичных игровых приложениях. Значение «Турбо» (GPU Boost) обозначает усредненную частоту GPU по результатам большинства игровых сцен.

реклама

Новая технология, ориентируясь на максимально допустимую нагрузку и достигнутую температуру, автоматически подстраивает частоту и задает напряжение. В теории максимальная температура равна 82-85°C, вентилятор системы охлаждения постоянно подстраивается под изменяющиеся условия тестирования, не позволяя GPU разогреться выше приведенных чисел. Естественно, что GPU Boost учитывает и температуру. И если видеокарта по каким-то причинам превысит эту цифру, в дело вступят функции защиты. Практический максимум, по заявлениям NVIDIA, равен 98°C – это критическая температура, после которой система может полностью выключиться, предварительно применив все доступные методы защиты.

Вторая – это желаемая частота. Я не пишу «базовая», поскольку при установке этой частоты можно поймать себя в ловушку. Все дело в том, что при значительном нагреве или в случае аномальной загрузки видеокарта может понижать данную частоту и ниже ваших установок.

Разгон стоит начинать со статичного предельного энергопотребления, например, 100%. Затем понемногу увеличиваете желаемую частоту – до тех пор, пока не увидите один из признаков достижения лимита. Видеокарта либо начнет сбрасывать частоты на начальные значения, либо зависать. Любой из этих признаков означает, что придется увеличивать предел. Не советую сразу выставлять максимально допустимое энергопотребление. Данное действие мгновенно приведет к перегреву и зависанию карты. Зато набравшись терпения, чутья и времени, вы гарантированно мелкими шажками разгоните карту до 1.2-1.3 ГГц.

В свою очередь GPU Boost автоматически добавляет напряжение в зависимости от выставленного предела энергопотребления, следом растет и частота. В конечном итоге видеокарта постепенно разгоняется. В чем же суть обоих инструментов управления? Не в том ли, что отныне нет смысла задавать базовую частоту и напряжение? Фактически, испробовав различные комбинации и варианты, мне удалось сбалансировать на грани фола и удержать хороший разгон во время проверки программой Furmark. Делается это двумя переменными. Необходимо тонко чувствовать работу GPU Boost и подстраиваться под нее, устанавливая правильную базовую частоту и предел энергопотребления.

К счастью, видеокарты оригинального дизайна получили расширенный диапазон регулировки Power Target – до 150 и более процентов. Но это применимо не всегда, часть ускорителей (особенно тех, что заранее разогнаны), наоборот, ограничена до 120%. Тут логичнее говорить об общем максимуме мощности системы питания, когда каждый производитель выставляет свой предел.

реклама

Говоря проще, Power Target указывает на максимальное энергопотребление видеокарты, под которое подстраиваются GPU Boost и ваши настройки разгона. Чем выше значение Power Target, тем больше шансов разогнать GPU, при условии нормальных температур графического ядра и силовой части. Как только вы упираетесь в верхнюю грань и параллельно пытаетесь задать большую частоту (нежели ту, на которой может работать видеокарта), алгоритм, заложенный в драйвер, сбрасывает частоту. После этого достаточно убрать с десяток мегагерц и повторить тест. И так до тех пор, пока не найдете максимально стабильную частоту ядра. А далее – новый маневр с Power Target. Совет здесь один: поднимать на одно-два деления и не забывать при этом о проверке работоспособности видеокарты на заданных параметрах.

Для тех, кто умудрился запутаться в разгоне новых GPU NVIDIA, я приготовил иллюстрации.

Общий план работы карты.

Полное TDP видеокарты, именно максимально допустимое, изначально задано производителем. Складывается оно из штатных рабочих частот в рамках функции GPU Boost и максимального значения Power Target. GPU Boost управляет не только частотой, но и напряжением, а Power Target – это стратегический запас для разгона. Допустим, мы, не трогая Power Target, увеличим GPU Clock Offset.

реклама

Запрашиваемая частота – это GPU Clock Offset. Было задано слишком высокое значение, которое превышает заложенное производителем начальное энергопотребление (TDP). В результате частота вырастет на меньшую величину. Для того чтобы действительно достичь требуемой частоты, придется сдвинуть Power Target.

Вот так выглядят идеально подобранные настройки. Запрашиваемая частота подкреплена сдвигом ползунка Power Target. Максимальное TDP не превышено.

К сожалению, иногда приходится встречаться со сложным алгоритмом разгона. С тех пор как NVIDIA задала определенный уровень TDP для каждого класса видеокарт, а компании применяют собственный разгон, вы вполне можете столкнуться с полным отсутствием частотного потенциала. Очень сложно определить стабильную частоту, поскольку, даже увеличив Power Target, GPU Boost работает непредсказуемо. В одной игре вы получите 1130 МГц, а в более требовательной – 1100 МГц. После запуска Furmark на экране и вовсе будет фигурировать 1050 МГц.

реклама

Новая технология в виде GPU Boost 2.0 расширила свое влияние на частотный диапазон. Даже первая ее версия отличалась быстрой работой, постоянно стараясь увеличить частоту при любой возможности. Вторая версия работает по более агрессивному сценарию. Если заявленная частота GPU Boost равна 870 МГц, то в реальности можно встретить как 915 МГц, так и 990 МГц. Причины столь сильного повышения частоты кроются в настройках.

Во-первых, пользователям теперь доступна не одна базовая настройка (Power target), а две – Power Target и «Температура». По умолчанию приоритет остается за первой. Максимальное значение для Titan – всего 110%, начальная температура 80°C, а максимальная температура равна 95°C. Оба параметра могут задаваться как раздельно, так и совместно, причем приоритет можно изменять от одного к другому. Как результат, средняя частота увеличивается.

Готовы перейти к более интересной части? Тогда вперед. NVIDIA позволила при условии соглашения с риском повредить видеокарту задействовать небольшой вольтмод (OverVoltage) до 1.187 В. Соглашаясь с правилами, вы дополнительно увеличиваете напряжение и повышаете среднюю частоту GPU. Вроде бы появляется ощущение снисходительности по отношению к энтузиастам, но ранее объявленное общее ограничение максимального энергопотребления никуда не делось. Допустим, будем считать, что 250 Вт это среднее энергопотребление, тогда максимальное по моим тестам получилось «плюс 45 Вт». Не дотягивает даже до GeForce GTX 690.

Дополнительно обнаружился еще один интересный момент. Ранее я не встречался с проблемой разгона памяти на видеокартах NVIDIA GeForce GTX 6xx, но теперь максимальный TDP распространяется и на память. Чем это чревато для энтузиастов? Приведу простой пример. Путем некоторых манипуляций вокруг цифры 295 Вт можно получить разгон 1100-1170 МГц, настало время разгонять память. Но каждые дополнительные 100 МГц памяти отнимут 25-50 МГц от разгона ядра. Неудобно и непривычно… К тому же, ускоритель GeForce GTX Titan не приспособлен для стресс-тестов типа Furmark. Он быстро распознает нетипичную нагрузку и снижает частоту вместе с напряжением до минимального значения. Для проверки разгона мне пришлось воспользоваться программой тестирования Unigine Heaven в максимально тяжелых для видеокарты условиях.

реклама

Частота GPU, ГГц0.9500.97511.0151.0301.0451.0601.0751.1001.125
Power Target100102106106106106106106106106
Temp Target80859595959595959595
GPU Clock offset02530352535506590115
Напряжение, мультиметр, В1.1121.1151.1151.1151.1871.1871.1871.1871.1871.187
Температура GPU, °C80818181828282828282
Температура VRM, °C70717272737373737373
Обороты вентилятора (max), об/мин2250235024002400250025002500250025002500
Энергопотребление, Heaven, Вт315332334335351354354354355359

В итоге была достигнута стабильная частота графического процессора в 1125 МГц, а в играх и того больше – 1150 МГц. Не забыта и память, она разогналась совместно с GPU до 1650 МГц.

Пришло время рассмотреть видеокарту GeForce GTX Titan подробнее.

Источник

Самая быстрая одночиповая видеокарта. Тестирование нового флагмана NVIDIA — GeForce GTX TITAN

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titanЧто такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

Год назад, тестируя новое поколения GeForce 600, мы предположили, что чип GK104 на GTX 680 — далеко не все, на что способна архитектура Kepler. И, похоже, были правы. Восемнадцатого февраля NVIDIA представила свой настоящий флагман — кристалл GK110. Карта на его основе вышла настолько мощной, что впервые в истории компании получила не цифробуквенное обозначение, а имя собственное — GeForce GTX TITAN, в честь самого быстрого суперкомпьютера по версии TOP500 list.

Родословная

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

С именитым собратом новинку роднит не только имя, но и, как ни странно, техническая часть. Лидер вычислительных систем набран 18 668 картами NVIDIA Tesla K20X, которые и легли в основу нашего героя.

Установленный на него чип GK110 построен по уже знакомой нам архитектуре Kepler. Кристалл разделен на несколько крупных кластеров под названием GPC. В каждый входит по одному растеризатору и по паре SMX-наборов. Последние — 192 CUDA-ядра, 16 текстурников, 32 блока специальных операций и один движок тесселяции. В прошлом флагмане (GTX 680) насчитывалось восемь таких SMX, в GK110 — четырнадцать, то есть на 75% больше. В итоге количество CUDA-ядер увеличилось с 1536 до 2688 единиц, а TMU — со 128 до 224. Чтобы собрать такую махину, пришлось разместить на камне 7,1 млрд транзисторов против 3,54 млрд у GTX 680. При этом работают они на 836 МГц. Конечно, это не 1006 МГц у GK104, но, учитывая разницу в вычислительных блоках, цифра могла быть и меньше.

Впечатляет в GTX TITAN и объем видеопамяти. Ее для новинки выделили в три раза больше, чем для GK104, — 6 ГБ GDDR5 на скорости в 6 ГГц. Шину же увеличили с 256 до 384 бит, что дало почти 50%-ный прирост к пропускной способности. Зачем так много? Действительно, для конфигураций с одним монитором 6 ГБ — избыточная емкость, но для запуска игр на трех дисплея с разрешением 5760х1080 — самое то.

Технологии

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

Поскольку новинка основана на архитектуре 600-серии GeForce, все присущие ей технологии никуда не делись. Переделали лишь несколько опций. Так, нашумевшая функция автоматического разгона GPU Boost подросла до второй версии. Как и Intel с запуском Sandy Bridge, NVIDIA отказалась от повышения частот в зависимости от энергопотребления. Как показала практика, зачастую кристалл упирался в этот показатель и не мог развить наивысшую для него скорость, да и время работы оставляло желать лучшего. С GPU Boost 2.0 ориентиром для увеличения производительности стала текущая температура: пока она не поднимется до 80 градусов Цельсия, видеокарта будет функционировать как минимум на 876 МГц.

К сожалению, как и раньше, аппаратный оверклокинг отключить нельзя, зато можно повлиять на его поведение. Помимо разгонной частоты отныне позволяется менять пороговую температуру и вольтаж, устанавливая значения, к которым будет стремиться GPU. Играя этими параметрами, можно как затормозить, так и ускорить GK110. Интересно, что официально подобные эксперименты NVIDIA все еще не поддерживает: настройки доступны только в сторонних программах типа EVGA Precision.

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

С GPU Boost 2.0 у NVIDIA появилась еще одна интересная функция — разгон монитора при помощи нового V-Sync. Если до сегодняшнего дня синхронизация не позволяла счетчику fps подниматься выше 60 кадров, то теперь эту планку можно задать вручную, выставив, к примеру, 80 изображений в секунду. Конечно, вряд ли эта технология понадобится простым игрокам, но вот заядлым киберспортсменам может пригодиться, от них мы не раз слышали, что 60 fps — слишком мало для динамичных игр.

Сделала NVIDIA подарок и тем, кто использует видеокарту не только для развлечений, но и для ускорения вычислений общего назначения (к примеру, математические пакеты). Нарочно для них количество ядер двойной точности увеличили с 8 до 64 штук на один SMX-набор. Включаются эти блоки через панель управления NVIDIA, в опциях CUDA, и работают на чуть меньшей скорости, чем основные ядра.

Внешний вид

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

Внешне GTX TITAN напоминает прошлогоднюю GTX 690 — тот же алюминиевый корпус, плексигласовое стекло, светящееся зеленым название серии на боку и штамповка с именем платы у переднего края. Единственное заметное отличие — вентилятор теперь цилиндрический и размещен не посередине, а рядом с питающими разъемами PCIe. Последних нужно две штуки, на 6 и 8 pin; вместе с PCIe x16 они обеспечивают необходимые карте 250 Вт.

Пассивную часть системы охлаждения составляют испарительная камера и большой алюминиевый радиатор. Интересно, что, несмотря на возросшую мощь GPU и появление шумной вертушки, GTX TITAN сохранила тихий нрав своих предшественников: даже под нагрузкой карту почти не слышно. Спасибо за это надо сказать хитрому алгоритму управления вентилятором. Низкие обороты сохраняются, пока плата держится в пределах 80 градусов Цельсия, и только после пересечения этой отметки крыльчатка начинает крутиться сильнее. О холодном характере новичка говорит и задняя панель. На выхлоп горячего воздуха отведена всего половинка отсека: оставшаяся площадь отдана под видеовыходы. GTX TITAN получил два DVI и по полноразмерному DisplayPort и HDMI.

Тестирование

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

В продаже GTX TITAN должен появиться лишь 4 марта, но нам удалось достать один из трех привезенных в нашу страну экземпляров. Помогли в этом деле официальное представительство NVIDIA и магазин Meijin, предоставивший нам мощную тестовую платформу на базе материнской платы ASUS Rampage IV Formula с процессором Intel Core i7-3790X Extreme Edition, четырьмя планками DDR3-1666 МГц по 8 ГБ каждая и установленным SSD Intel 520 на 480 ГБ. Работало все это на операционной системе Windows 7 Ultimate 64-bit.

В конкуренты флагману записали видеокарты GTX 680 и GTX 690. К сожалению, сравнить новинку с референсной Radeon HD 7970 мы не успели. Впрочем, потеря невелика, результаты топового продукта AMD примерно на 5—10% ниже, чем у GTX 680: можете вычесть из столбиков NVIDIA и представить себе итоговое соотношение.

В список синтетических тестов вошли 3DMark 11, Unigine Heaven 3.0 и Unigine Valley. Пакет игр составили Aliens vs. Predator, Batman: Arkham City, DiRT2, Just Cause 2, Max Payne 3 и новейший Crysis 3. Все это прогоняли на максимальных настройках с разными уровнями сглаживания (MSAA) и в двух разрешениях: 1680х1050 и 1920х1080.

Crysis 3 оказался невероятно красивой и, как показали наши тесты, требовательной игрой. Сколь ни удивительно, встроенного бенчмарка Crytek не написали, так что тестировать проект пришлось по старинке: при помощи FRAPS. Тем, кто захочет повторить наши подвиги и сравнить свою систему с GTX TITAN, расскажем, что для этого нужно.

В качестве тестовой сцены мы выбрали самое начало второго уровня игры — Welcome to the Jungle. Тестируемый промежуток — контрольная точка с подрывом мин, пробежкой до поднятия на мост и скриптовым роликом общения с Психом. Отрывок хорош тем, что демонстрирует все основные возможности CryEngine 3 и его легко воспроизвести.

Результаты получились следующими. В гонке одночиповых решений GTX TITAN — безусловно, новый король графики. Еще по итогам синтетики стало понятно, что GTX 680 безнадежно отстает: 27% на погрешность не спишешь. Игры это только подтвердили. Почти во всех проектах преимущество GK110 составляло от 20 до 33%. Конечно, это не плюс 75 теоретических процентов, но прирост более чем внушительный. Особенно хорошо GTX TITAN показала себя в тяжелых бенчмарках — Crysis 3 и Max Payne 3. При максимальных настройках GTX 680 не осилила ни один из них. Новичок ниже 30 fps не опускался.

А вот догнать двойную GTX 690 свежему флагману не удалось. Две GTX 680, размещенных на одном куске текстолита, оказались заметно быстрее абсолютно во всех тестах, кроме Crysis 3. Впрочем, последний, похоже, просто не смог использовать все возможности SLI: слишком маленький прирост по сравнению с одиночным GK104. Возможно, с патчами или обновлением драйверов скорость подрастет.

В итоге

Что такое nvidia titan. Смотреть фото Что такое nvidia titan. Смотреть картинку Что такое nvidia titan. Картинка про Что такое nvidia titan. Фото Что такое nvidia titan

Пропеть дифирамбы NVIDIA мешает одна вещь — цена. В то время как за более производительный (и шумный) GTX 690 сейчас хотят 31 000 рублей, а за GTX 680 просят 15 000 рублей, за GTX TITAN придется выложить от 34 999 рублей! Именно во столько NVIDIA оценивает быстрейшую одночиповую видеокарту на нашей планете. Честно признаемся, очень хочется написать по этому поводу пару гневных абзацев, но не будем.

Как ни крути, GeForce GTX TITAN — не только самая быстрая, но еще и самая технологически совершенная плата в мире. При всей своей изначальной мощи она в пике потребляет каких-то 250 Вт, почти не греется, не шумит и отлично гонится. По мнению NVIDIA, новинку можно установить даже в SFF-корпус (чуть больше Xbox 360). Кто готов предложить нечто лучшее? Да никто, аналогичных продуктов на рынке нет и в ближайшее время не предвидится. А значит, NVIDIA можно смело поздравить с очередной победой.

Технические характеристики
ХарактеристикаNVIDIA GeForce GTX TITANNVIDIA GeForce GTX 680NVIDIA GeForce GTX 690
ЯдроGK110GK1042x GK104
Количество транзисторов7,1 млрд3,54 млрд2x 3,54 млрд
Техпроцесс28 нм28 нм28 нм
Количество потоковых процессоров2688 шт.1536 шт.2х 1536 шт.
Частота графического ядра837—876 МГц1006—1058 МГц915—1015 МГц
Тип, объем памятиGDDR5, 6 ГБGDDR5, 2 ГБGDRR5, 4 ГБ
Частота памяти6008 МГц6008 МГц6008 МГц
Шина данных384 бит256 бит2х 256 бит
Количество текстурных блоков224 шт.128 шт.2х 128 шт.
Длина платы267 мм254 мм280 мм
Энергопотребление250 Вт195 Вт300 Вт
ИнтерфейсPCIe 3.0 x16PCIe 3.0 x16PCIe 3.0 x16
Цена на февраль 2013 года34 999 рублей15 000 рублей31 000 рублей

Синтетические тесты
3DMark 11 (Performance)
Модель видеокартыGraphicsPhysicsScore%
NVIDIA GeForce GTX TITAN10 34613 20612 725100%
NVIDIA GeForce GTX 6809 69912 346981277%
NVIDIA GeForce GTX 69016 78312 19714 882117%
Unigine Heaven Benchmark 3.0
Модель видеокартыFPSScores%
NVIDIA GeForce GTX TITAN65,61652100%
NVIDIA GeForce GTX 68046,7117671%
NVIDIA GeForce GTX 69080,32024123%
Unigine Valley 1.0
Модель видеокартыFPSScores%
NVIDIA GeForce GTX TITAN62,92632100%
NVIDIA GeForce GTX 68041,5173766%
NVIDIA GeForce GTX 69072,93050116%

Игровые тесты (кадров в секунду)
Aliens vs. Predator (DX11)
НастройкиNVIDIA GeForce GTX TITANNVDIA GeForce GTX 680NVDIA GeForce GTX 690
VeryHigh, 1680×1050, AF 16x, AA 2x116,581,3145,6
VeryHigh, 1680×1050, AF 16x, AA 4x97,864,6119,1
VeryHigh, 1920×1080, AF 16x, AA 2x103,172,3130,4
VeryHigh, 1920×1080, AF 16x, AA 4x87,958,4107,4
%100%68%124%
Just Cause 2 (DX11)
НастройкиNVIDIA GeForce GTX TITANNVDIA GeForce GTX 680NVDIA GeForce GTX 690
High, 1680×1050, AF 16x, AA 4x118,193,4151,2
High, 1680×1050, AF 16x, AA 8x117,889147,6
High, 1920×1080, AF 16x, AA 4x114,481,3144,7
High, 1920×1080, AF 16x, AA 8x109,388,8139,7
%100%77%127%
Batman: Arkham City (DX11)
НастройкиNVIDIA GeForce GTX TITANNVDIA GeForce GTX 680NVDIA GeForce GTX 690
Ultra, 1680×1050, AF 16x, AA 4x14589150
Ultra, 1680×1050, AF 16x, AA 8x12884130
Ultra, 1680×1050, AF 16x, PhysX707574
Ultra, 1920×1080, AF 16x, AA 4x13857147
Ultra, 1920×1080, AF 16x, AA 8x11556127
Ultra, 1920×1080, AF 16x, PhysX725574
%100%62%105%
Max Payne 3 (DX11)
НастройкиNVIDIA GeForce GTX TITANNVDIA GeForce GTX 680NVDIA GeForce GTX 690
Very High, 1680×1050, AF 16x, AA 4x76,352,392,9
Very High, 1680×1050, AF 16x, AA 8x45,530,658,3
Very High, 1920×1080, AF 16x, AA 4x66,54681,9
Very High, 1920×1080, AF 16x, AA 8x40,426,548,4
%100%68%123%
DiRT 2
НастройкиNVIDIA GeForce GTX TITANNVDIA GeForce GTX 680NVDIA GeForce GTX 690
Ultra, 1680×1050, AF 16x, AA 4x185,2146,5196,6
Ultra, 1680×1050, AF 16x, AA 8x146,2130192,7
Ultra, 1920×1080, AF 16x, AA 4x164,8136,3194,3
Ultra, 1920×1080, AF 16x, AA 8x137,2108,1184,6
%100%82%121%
Crysis 3
НастройкиNVIDIA GeForce GTX TITANNVDIA GeForce GTX 680NVDIA GeForce GTX 690
Max, 1680×1050, AF 16x64,550,458
Max, 1680×1050, AF 16x, AA 4x51,436,945,3
Max, 1680×1050, AF 16x, AA 8x40,828,935,9
Max, 1920×1080, AF 16x58,145,752,1
Max, 1920×1080, AF 16x, AA 4x45,53342
Max, 1920×1080, AF 16x, AA 8x35,825,232,1
%100%74%90%

Соотношение цена/производительность
Модель видеокартыПроизводительностьЦена
NVIDIA GeForce GTX TITAN100%100%
NVDIA GeForce GTX 68072%43%
NVDIA GeForce GTX 690116%88%

Многие сейчас задаются вопросом, к какой серии причислить GTX TITAN — GeForce 600 или GeForce 700. NVIDIA, судя по всему, считает, что ни к одной из них. Об этом говорят как название, так и цена. Однако у нас на этот счет другое мнение.

Приписать новинку к новой серии невозможно. Для этого нам должны были представить по крайней мере измененную архитектуру и новые возможности. А их в GTX TITAN нет. Но вот возглавить 600-ю линейку флагман может без вопросов. Мало того, мы думаем, что сделать это он мог и год назад.

Будем честны, GTX 680 ну никак не тянул на топовую видеокарту. Тому было много прямых и косвенных свидетельств. Самые явные — низкое энергопотребление (всего 195 Вт) и маркировка хх104, которую до этого использовали только для среднего ценового диапазона. В списке неосновных улик значится затянутый выход младших представителей GeForce 600. На выпуск GK106 (GTX 660) ушло почти полгода, хотя раньше на это требовалось не больше трех месяцев.

На этом фоне GTX TITAN выглядит как настоящий лидер 600-й серии: нормальное TDP в 250 Вт, «правильное» имя чипа и внушительная производительность. Почему же тогда новинку не взяли официально в семью? Как нам кажется — чтобы, во-первых, подчеркнуть уникальность решения и заработать на нем больше денег, а во-вторых, не называть столь мощную карту банальным GTX 685.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *