Конференция Nvidia GTC 2014

Компания Nvidia уже давно ориентирована на разные рынки, далеко не только традиционный для них рынок игровых графических процессоров, который переживает не лучшие времена относительного застоя. Компания также предлагает свою продукцию в сфере профессиональных графических решений, на рынках процессоров для высокопроизводительных вычислений, мобильных устройств и автомобильных развлекательно-информационных систем. Интерес к вычислительным применениям графических процессоров с 2008 года серьезно вырос, и сейчас GPU успешно применяются во многих сферах, а не только 3D-визуализации.

Несколько лет назад Nvidia организовала собственное крупное мероприятие, посвященное различным аспектам использования графических процессоров в широком наборе задач — GPU Technology Conference . Прошедшая в конце марта очередная ежегодная конференция компании Nvidia стала пятой в истории, она традиционно проходит в городе Сан-Хосе, в штате Калифорния, США. Для Nvidia конференция GTC с тех пор стала главным мероприятием года, именно на нем делаются самые крупные анонсы компании и раскрываются планы на будущее.

«Графическо-процессорная» конференция Nvidia с каждым годом привлекает все большее внимание со стороны сотен исследователей и ученых из различных учебных заведений и компаний, в этом году уже более 3500 участников из 50 стран мира приехали в Сан-Хосе, чтобы принять участие в интереснейшем мероприятии: выступить со своими докладами, послушать других участников, познакомиться и пообщаться с единомышленниками и даже конкурентами. Польза от GTC несомненна уже потому, что конференция этого года включала более 500 сессий с массой интересной и полезной информации о том, как графические процессоры Nvidia могут облегчить выполнение задач, интересующих ее участников.

Американское мероприятие Nvidia в очередной раз проводится в уже привычном выставочном центре San Jose McEnery Convention Center — лишь один раз (первый) она проводилась в другом здании. Выставочный центр с прошлого года был реконструирован и расширился — проведение подобных мероприятий явно помогло этому расширению. Ну а российских журналистов и представителей участвующих в конференции компаний, прибывших в Сан-Хосе в середине весны, всегда особенно радует приятная возможность попасть в настоящую весну, ведь в Калифорнии в это время тепло и красиво.

Первый полноценный день работы конференции GPU Technology Conference 2014 открылся с традиционного ключевого выступления президента компании — Дженсена Хуанга. Его выступление на GTC всегда вызывает максимальный интерес со стороны публики, собравшейся в городском выставочном центре.

Первым делом Дженсен рассказал о том, что вычислительные мощности графических процессоров используются в разных задачах все чаще, и что GPU обеспечивает прорывы в производительности во многих сферах за счет явно большего роста вычислительных мощностей графических чипов, по сравнению с центральными процессорами.

Вполне естественно, что главным событием, открывающим публике подобные возможности, является конференция GTC, которая каждый год собирает все больше и больше людей, связанных с применением графических процессоров в различных сферах деятельности человека, и каждый год конференция растет — с 2010 года отмечено почти двукратное увеличение количества участников и выступлений.

Наиболее интересными темами на GTC этого года стали: анализ данных больших объемов, машинное зрение и обучение. Все новые и новые компании представляют на конференции свои разработки, и количество «новичков» растет вместе с конференцией.

Но для начала давайте посмотрим на то, что сама Nvidia приготовила публике, ведь Дженсен Хуанг просто так на сцену не выходит, у него обязательно припрятаны какие-то интересные новости и анонсы, связанные с программными и аппаратными решениями компании.

Решение проблем пропускной способности: интерфейс NVLink и stacked DRAM

Уже сейчас возможности графических процессоров компании Nvidia при помощи платформы CUDA используются почти во всех сферах жизнедеятельности человека. Но при всей высочайшей производительности у GPU есть и свои ограничители производительности — «бутылочные горлышки», не дающие их возможностям раскрыться еще полнее.

Основным ограничителем производительности для графических процессоров с давних пор является скорость передачи данных по интерфейсу, а также чтение и запись в видеопамять GPU. Так, скорость передачи по PCI Express равна лишь 16 ГБ/с, а для локальной памяти эта цифра хоть и выше — до 288 ГБ/с, но и она недостаточна в некоторых случаях при больших объемах данных.

Чтобы побороть первую проблему, Nvidia анонсировала на GTC новый высокоскоростной интерфейс NVLink, который планируется интегрировать в будущие графические процессоры компании. Этот интерфейс увеличит производительность передачи данных между GPU и CPU, а также между графическими процессорами в 5-12 раз, по сравнению с PCI Express.

Таким образом, этот новый интерфейс будет меньше ограничивать производительность будущих систем, использующих графические процессоры Nvidia, так как эта компания добавит поддержку NVLink в своей следующей графической архитектуре, которая придет на смену недавно вышедшей Maxwell в 2016 году.

Новый интерфейс был разработан совместно с компанией IBM, которая планирует поддержать его в будущих процессорах серии POWER. Что касается других процессоров, то пока что точных данных нет, но Nvidia ничто не мешает продолжать использовать PCI Express будущих версий.

Вторую проблему — недостаточную производительность передачи данных из видеопамяти и обратно, компания Nvidia также планирует решить в будущихграфических процессорах. Для этого в следующих поколениях GPU будет использоваться так называемая «3D память» (или «stacked DRAM») в виде микросхем, интегрированных на видеочип.

Интеграция памяти даст громадный прирост пропускной способности памяти в несколько раз, а также такая память будет значительно более энергоэффективна (вчетверо, по оценкам Nvidia) и позволит более чем вдвое увеличить ее объем, по сравнению с текущими решениями. Это решение давно ожидается всеми участниками рынка высокопроизводительных вычислений и основная проблема тут — в производстве такой памяти. Вероятно, компания ожидает, что она решится в ближайшие годы, как раз к выходу следующего поколения GPU.

Планы Nvidia по выпуску графических и мобильных процессоров

Указанные выше технологии в виде NVLink и «stacked DRAM» компания Nvidia планирует использовать в графических чипах своей следующей архитектуры, анонсированной именно на конференции GTC. Новая графическая архитектура названа в честь Блеза Паскаля — выдающегося французского ученого, одного из основателей математического анализа, теории вероятностей и проективной геометрии, известного по одноименным закону и теореме.

Будущая графическая архитектура Pascal включает поддержку NVLink с 5-12-кратным ускорением пропускной способности, по сравнению с PCI Express и встроенную на GPU «stacked» память, которая обеспечит многократный прирост ПСП для видеопамяти. Очень интересно, что оно будет предлагаться в том числе в виде специальных модулей втрое меньшего размера, по сравнению со стандартной платой расширения нынешнего времени.

Посмотрите на слайд — в центре помещен сам GPU с чипами памяти прямо на нем, чуть дальше от него — система питания с двух сторон. Плата будут присоединяться к серверной системе при помощи специальных разъемов типа «mezzanine». Естественно, что Дженсен не отказал себе в возможности попозировать перед толпой заинтересованных журналистов и участников GTC, показав один из ранних прототипов Pascal в своих руках.

Обновились и планы компании Nvidia на выпуск графических процессоров. Вместо куда-то исчезнувшей из планов архитектуры Volta после уже вышедшего первого поколения Maxwell появилась архитектура Pascal, выход которой назначен на 2016 год. А Volta… может и будет, но уже позже.

А для чего вообще нужна подобная высочайшая производительность и пропускная способность? Ведь игровые применения обходятся куда меньшей мощностью, а на одном лишь рынке визуализации не выедешь. К примеру, можно использовать всю эту мощь в обучаемых машинных алгоритмах, искусственном интеллекте, распознавании образов и т.д.

К примеру, для распознавания образов используются нейронные сети — самообучаемые в процессе анализа больших объемов данных и требующие огромной производительности, которой всегда не хватает.

Так, суперкомпьютерный кластер Google Brain включает мощь тысячи серверов с 2000 CPU, имеющих 16000 процессорных ядер в общем количестве. Эта система потребляет 600 киловатт и стоит около 5 млн. долларов. И все было бы хорошо, но возможности одного человеческого мозга превышают вычислительные возможности такой системы в несколько миллионов раз!

Системы на базе графических процессоров Nvidia могут значительно улучшить производительность и возможности алгоритмов вроде искусственного интеллекта и распознавания образов. Так, система на базе трех серверов в Стэндфордском университете, использующая 12 GPU, предлагает более чем 18 тысяч вычислительных ядер, дающих такую же производительность, как Google Brain. В это же время система потребляет лишь 4 киловатта, а стоит всего 33 тысяч долларов — в разы меньше.

Рост производительности серверов весьма важен для индустрии, так как объемы данных, которые нужно обработать, постоянно растут. И графические процессоры уже используются большим количеством различных компаний для распознавания лиц, объектов, жестов, речи, при индексации и поиске информации.

Среди компаний, которые раньше всех начали использовать GPU в своих задачах, можно привести Adobe, flickr, IBM, Netflix и российский Яндекс. Все они используют при решении своих задач в том числе и мощные графические процессоры компании Nvidia.

Не забыл Дженсен и о рынке мобильных чипов. Уже сейчас их Tegra K1 дает отличные возможности для применения в различных решениях, а будущие SoC обещают быть еще лучше. Nvidia представила на GTC 2014 также и свои обновленные планы на выпуск будущих систем-на-чипе. На 2015 год компанией запланировано появление мобильной системы Erista — будущего решения, основанного на графическом ядре архитектуры Maxwell, которое должно отличаться еще более высокой производительностью и энергоэффективностью, по сравнению с Tegra K1 на основе Kepler.

Итак, с появлением возможностей CUDA в мобильных решениях, вся линейка компании Nvidia теперь обладает такой поддержкой и это серьезно облегчает разработку новых программных и аппаратных решений, использующих графические процессоры Nvidia, ведь можно разрабатывать масштабируемое ПО, которое будет работать и на смартфонах и на настольных ПК и на серверах.

Titan Z — сверхпроизводительное решение на основе двух GPU

Дженсен не был бы президентом Nvidia, если бы не анонсировал новые решения компании на своей же конференции, посвященной высокопроизводительным вычислениям. На GTC 2014 была представлена двухчиповая плата на основе пары процессоров GK110, имеющая в целом аж 5760 вычислительных ядер и 12 ГБ памяти.

Новое двухчиповое решение назвали Titan Z и оно отличается производительностью в 8 терафлоп и будет предлагаться в апреле по цене около 3000 долларов. Почему это решение важно для конференции высокопроизводительных вычислений? Да потому что аналог Google Brain по производительности теперь может быть собран в одном серверном блоке, включающем три платы Titan Z. Вместе они содержат более 17 тысяч вычислительных ядер и при потреблении в 2 кВт будут стоить лишь 12000 долларов.

Естественно, что новая вычислительная система Titan Z тут же была впервые публично показана Дженсеном на сцене:

Ну а уже после выступления главы Nvidia мы получили возможность сделать пару первых фотографий Titan Z:

Пока что о доступности и сроках начала поставок свежеанонсированного двухчипового решения ничего толком неизвестно, а какие-то подробности от Nvidia ожидаются в апреле. Впрочем, мы не удивимся, если настолько дорогое решение с большим энергопотреблением не будет реализовываться в привычном виде через обычные розничные магазины. Вероятнее всего — сотрудничество с производителями готовых решений, отличающихся максимальной производительностью и бескомпромиссностью.

Анонсы в сфере визуальных вычислений: Iray VCA и доступность GRID на платформе VMware

В рамках своего ключевого выступления первого дня, после краткой демонстрации вычислительных возможностей Titan Z, президент Nvidia перешел к вопросу качественного рендеринга при помощи трассировки лучей, который отличается фотореалистичным качеством и высокими требованиями к вычислительной производительности:

Компания Nvidia представила на GTC программно-аппаратное решение для рендеринга на GPU, которое ускоряет трассировку лучей и позволяет дизайнерам работать с качественными моделями, что позволяет сократить процесс построения физических прототипов и сэкономить деньги в конечном итоге.

Система визуальных вычислений Iray VCA предназначена для ускорения работы модуля рендеринга Nvidia Iray, встроенного в самые популярные системы проектирования: CATIA от Dassault Systemes, 3ds Max и Maya от Autodesk. Решение включает 8 графических процессоров Kepler, каждый из которых имеет по 12 ГБ памяти, всего в него входит более 23 тыс. вычислительных ядер, а масштабируемость этой системы позволяет добавлять блоки, многократно ускоряя процесс моделирования и качественного рендеринга.

В качестве примера был показан автомобиль Honda, собранный из тысяч деталей и рендерящийся на подобной системе в реальном времени в фотореалистичном качестве. Это и неудивительно, ведь Iray VCA обеспечивает во много крат большую производительность, по сравнению с системами с одним только CPU или единственным GPU:

Компания Nvidia продолжает помогать компаниям, занимающимся визуализацией различной информации, в их нелегком деле. В прошлом они предложили технологии виртуализации, а на нынешней выставке GTC представили программно-аппаратное решение для рендеринга на графических процессорах, которое ускоряет трассировку лучей — систему визуальных вычислений Iray VCA. Вот как она выглядит:

Масштабируемость этой системы позволяет добавлять блоки сколько угодно, многократно ускоряя процесс моделирования и качественного рендеринга. Все это в конечном итоге позволяет дизайнерам работать с качественными моделями, сценами и освещением в реальном времени, что позволяет сократить процесс разработки и сэкономить деньги.

Еще одним интересным анонсом, сделанным Дженсеном Хуангом в своем ключевом выступлении на GTC 2014, стало объявление о соглашении с компанией VMware о доступности технологии Nvidia GRID в рамках платформы VMware Horizon DaaS Platform. Совместное решение этих компаний обеспечит поддержку 3D-графики на виртуализированных рабочих столах и при работе с приложениями через «облако».

Одновременное применение р…

Источник: