Будущее 3D-графики

Будущее 3D-графики

Доверять специалистам легко и приятно. Даже ошибаясь, они снимают с нас груз ответственности за принятие решений, а уж в сфере прогнозирования кому верить, как не разработчику — кто, кроме человека, детально представляющего себе тот или иной процесс, может обоснованно предположить дальнейшее развитие технологии? Никто, наверное, а применительно к индустрии компьютерной 3D-графики и это "наверное" можно смело опустить. ExtremeTech ( http://www.extremetech.com ) публикует сжатое изложение выступления Дэвида Кирка на весеннем WinHEC, так что поблагодарим экстримовцев за такую возможность и заглянем в недалекое будущее глазами человека, чья должность определяется достаточно весомо — "nVidia's Chief Scientist", а инженерный авторитет вполне заслуженно этой должности соответствует.

Отличительная черта положения дел в области 3D-визуализации одновременно является и фактором, затрудняющим выдвижение конкретных прогнозов. Этой особенностью является безумный темп развития технологии и — в исторических масштабах — отсутствие в отрасли истории как таковой. 10 лет назад nVidia сама лишь едва проклевывалась как производитель, а монстр Silicon Graphics только начинал продвигать свой Reality Engine. Попытка отмотать очередные десять лет отбросит нас в 3D-вакуум — сама SGI еще в стадии формирования, а персональные компьютеры не имеют графического интерфейса вообще (хотя в начале следующего, 1984 года появится оригинальный Apple Macintosh).
Не скрывая риторичность вопроса, Дэвид Кирк спрашивает: "Сможем ли мы поддерживать темп освоения инноваций и роста производительности на уровне, продемонстрированном в течение последних десяти лет?" По его оценкам, темп этот превышает оценки закона Мура, по которому вычислительная мощность процессоров и/или плотность транзисторов в среднем удваиваются за полтора года. Производительность графических систем растет более чем вдвое за год — учитывая уменьшение технологических норм и увеличение быстродействия элементов.

Вычислительная мощность графических процессоров (вернее, возможность ее эффективного использования) также растет быстрее, чем у CPU общего назначения — потоковый характер обрабатываемых данных и эффективное распараллеливание вычислений позволяют загрузить чип на максимум его возможностей. Пока доступ к этому параллелизму не затрудняют архитектурные особенности GPU, перспективы развития с двукратным увеличением показателей за год представляются Дэвиду Кирку отнюдь не туманными.
Следующий, во многом определяющий, вопрос относится к изменению фундаментальных принципов формирования изображения. Текстуры, накладываемые на поверхности объекта, постепенно уступают место использованию пиксельных и вертексных шейдеров, что дает возможность производителям компьютерного железа и программного обеспечения говорить о "кинореализме".
Целью, причем достижимой в скором будущем, является графический процессор, на лету обсчитывающий сцены и эффекты, ныне достижимые только при рендеринге на специализированных компьютерах (часто весьма многочисленных) с серьезными временными затратами. Кирк при этом подчеркивает, что речь идет не о текущем поколении 3D-чипов, начавших движение к "cinematic realism", а о грядущих разработках. При всех своих достоинствах сегодняшние процессоры неспособны на расчет картинок с учетом глобального освещения на лету, так что качество изображения для сложной сцены, полученное в специализированном 3D-пакете по-прежнему вне конкуренции. Программируемые шейдеры пока наследуют ограничения технологий текстурирования и неспособны учитывать сложное (и всегда взаимное) влияние объектов модели на итоговый цвет каждого результирующего пикселя.

Мощность и гибкость в использовании современных GPU создают для них еще одну сферу применения — весьма специфичную и любопытную. Ряд функциональных особенностей графических процессоров удачно позволяет реализовать на них классические исследовательские алгоритмы, причем не имеющие никакого отношения к 3D-графике.
Того, что процессоры графические, и чипы общего назначения становятся все ближе, никто отрицать не станет. А вот продолжится этот процесс до полного слияния или нет — можно поспорить. Программируемость, обработка данных с плавающей точкой, языки высокого уровня применительно к GPU уже не являются чем-то из ряда вон выходящим. Графические процессоры по-прежнему функционально ограничены, по понятным причинам ориентированы на вполне определенный круг задач и не могут тягаться по этому параметру с Pentium 4. В отношении сложности чипа сказать того же нельзя, и Кирк шутливо, но вполне обоснованно объясняет свою позицию. Внутренний кэш (сам по себе плюс схемотехника, отвечающая за выборку данных и предсказания переходов) занимает огромную площадь кристалла (более трети, например, у AMD Athlon XP на ядре Barton). Графические чипы при близком (десятки миллионов) числе транзисторов используют их для "настоящей" логики, непосредственно задействованной в обработке данных. Гибкость принесена в жертву эффективности, приближающейся к 100% для каждого функционального блока графического процессора. Здесь и кроется ответ на вопрос о возможном объединении двух процессорных классов — при формальном сближении показателей GPU по-прежнему останутся специализированными устройствами, рассчитанными на перемалывание гигантских объемов потоковых данных.

В чем Дэвид Кирк убежден абсолютно, так это во все расширяющейся роли 3D-графики в повседневной жизни. Грядущая Windows, пока скрывающаяся под кодовым названием Longhorn, предъявит куда более жесткие требования к видеоподсистеме компьютеров, нежели любая из предыдущих версий ОС из Редмонда. Трехмерный графический интерфейс должен во многом изменить сложившееся разделение софта на 3D (игры и еще раз игры плюс относительно узкий спектр 3D-графики) и 2D — все остальное ПО. Трехмерность как способ предоставления большего количества информации упирается, правда, еще и в необходимость разработки качественных 3D-дисплеев, а прогресс в этой области куда менее значителен, нежели в отношении графических чипов. Приемлемое разрешение достигается в громоздких лабораторных образцах, а легкие миниатюрные "очки" и устройства, напрямую выводящие 3D-картинку в некотором объеме пространства, пока несопоставимы по качеству результирующего образа с тем, что обеспечивают современные видеокарты. Дэвид Кирк, тем не менее, полон оптимизма.

Продолжая тему программируемого графического чипа как устройства, предоставляющего расширенный набор возможностей и применений, Кирк приводит пример использования метода "подповерхностного рассеивания", предполагающего расчет прохождения света сквозь материал объекта.
Традиционный подход мог дать два варианта: черный объект на фоне подсветки либо смазанный образ, лишенный деталей поверхности, обращенной к зрителю. Программная реализация таких фокусов возможна, но в течение полугода, предполагает Дэвид Кирк, подобная функциональность будет реализовываться на лету.
Глубина резкости и "смазанность" быстро перемещающихся объектов также напрямую влияют на реалистичность образа. Ранее реализовывавшиеся как post-processing-процедуры, они требуют дополнительного объема вычислений. В первом случае к рассмотрению принимаются дистанция до каждого пикселя и некая модель оптической системы камеры, во втором — скорость движения различных частей объекта, учитываемая при окончательном рендеринге.
Вообще говоря, согласно Кирку, традиционный полигональный рендеринг с наложением текстур уже не является трудной задачей — современному GPU по силам рассчитать большинство сцен с FPS 50-60 кадров в секунду в высоком разрешении со включенным антиальязингом и анизотропной фильтрацией. Вопрос не в том, сколько пикселей можно получить, а в том, как они выглядят. Залогом успеха будет являться многообразие доступных методов расчета и их комбинирование с прицелом на реалистичность.

Теперь о нетипичных применениях графических процессоров. Специфическая "заточенность" чипов на самом деле не означает, что вся эта мощь ограничена игровыми рамками. Масса вычислительных задач, например, симуляция сложных динамических процессов в жидких средах, с высокой эффективностью может решаться с помощью современных GPU. По сути дела, допустимый спектр задач распространяется на любые виды вычислений (в том числе и над очень большими объемами данных) с локальным характером взаимодействия элементов. Кирк указывает, что в некоторых случаях полученная скорость работы превышает аналогичные показатели у Pentium 4 от 10 до 100 раз. Линейная алгебра, быстрое преобразование Фурье, в некоторых случаях — дифференциальные уравнения могут воспользоваться предоставляемыми GPU преимуществами. Существует исследовательская группа, пытающаяся побить рекорд Linpack-бенчмарка с помощью кластера из 256 персональных компьютеров, оснащенных GeForce FX. Самого Дэвида Кирка впечатлил другой проект — еще одна группа использовала скорость графического процессора для ускорения выполнения задач сортировки и поиска записей в базе данных. В таких ситуациях может достигаться 4-5-кратное превышение показателей Pentium 4 при условии, что код соответствующим образом оптимизирован и использует архитектурные особенности 3D-чипа. Это могут быть исследования термодинамических процессов, над которыми работают в университете Северной Каролины (UNC), или анализ данных, полученных от многочисленных датчиков с помощью алгоритмов фильтрации (Калифорния).

Да и самой графике есть место в университетских лабораториях. Так, например, в Стэнфорде удалось реализовать на лету photon tracing рендеринг, отличающийся необычайной ресурсоемкостью.
Клип, просчитанный в реальном времени на GeForce FX с разрешением 256х256 пикселей, может рассматриваться как демонстрация успехов 3D-технологии, так как эта же идея, впервые выдвинутая и продемонстрированная на Siggraph несколько лет назад, потребовала большого компьютера и заняла не один день его работы. А группа из уже упомянутого UNC разрабатывает возможность расчета теней на очень больших моделях (сложные фабричные или корабельные конструкции). В результате все тот же GeForce FX позволяет отрисовывать до 30 кадров в секунду для сцены, содержащей более 12 миллионов полигонов, и демонстрировать тени, лишенные артефактов, типичных для традиционных методов.
Кстати говоря, на одном "эфиксе" свет клином не сошелся. Кирк работает в nVidia, и его пристрастия объяснимы. На самом деле речь идет о тенденции несколько более широкой. Знаменитый National Center for Supercomputing Applications (университет Иллинойса) потратил чуть менее $50.000 долларов на создание вычислительного кластера на основе нескольких десятков Sony PlayStation 2.

Центр купил 100 приставок и, оставив штук 30 в резерве, доработал консоли, установив жесткие диски и Ethernet-модули. Объединенная с помощью двух высокоскоростных свичей, система в потенциале оценивается на полтриллиона операций в секунду и, не претендуя на место в списке 500 самых быстрых суперкомпьютеров в мире, само определение "суперкомпьютер" оправдывает полностью. Применительно к теме разговора будет уместно упомянуть, что ключевым элементом, привлекшим внимание ученых, был не центральный процессор приставки, а ее видеодвижок — Emotion Engine. Поразительная вычислительная мощь процессора перевешивает даже трудности с кодированием этого векторного монстра. Переделанные консоли работают под управлением Linux 2.2.1, портированной на Emotion Engine CPU. Целью всего мероприятия является проверка целесообразности использования low-end-комплектующих для создания высокопроизводительных систем. Дэн Рид, директор суперкомпьютерного центра, относится к начинанию достаточно серьезно. По его мнению, игровые приставки, равно как и другие вычислительные системы для рядового потребителя, развиваются чрезвычайно высокими темпами, и не обращать на них внимания было бы просто расточительно и недальновидно (буквально было сказано так: "The economics are just amazing. This is going to drive the next big wave in high-performance computing").
Свое выступление на WinHEC Дэвид Кирк закончил следующим прогнозом: та 3D-графика, которую мы знаем, отойдет в прошлое, а революционные изменения, которыми будет ознаменовано появление следующих поколений графических чипов, заставят нас по-новому взглянуть на ее возможности. Нас ожидают потрясающе реалистичные изображения физически достоверных моделей и процессов. Специалистам можно верить, особенно в ситуации, когда их предположения укладываются в оптимистическую парадигму "дальше — лучше". Аминь!

Г.Ярцев
По материалам ExtremeTech, AnandTech, С|Net и NCSA
http://atom.by



Компьютерная газета. Статья была опубликована в номере 23 за 2003 год в рубрике soft :: графика

©1997-2024 Компьютерная газета