Radeon откапывает топор войны

Как и было обещано в прошлом номере, вот более подробный обзор нового графического процессора (GPU) Radeon от ATI. Название чипа у нашего человека однозначно ассоциируется с топорами и порубанными старухами-процентщицами. Понятно, что в роли старушки-жертвы в данном случае выступает NVIDIA, единственная контора, на сегодняшний день выпускающая нормально работающий GPU GeForce 256. Radeon (тоже, кстати, 256) как раз и рассчитан на успешную конкуренцию с этим процессором. И у него есть все шансы.

Итак, для начала вспомним еще раз технические характеристики Radeon. Процессор, как это и следует из названия, имеет 256-разрядное ядро, состоящее из двух 128-разрядных блоков. Рабочая частота ядра - 200 МГц (в дальнейшем возможен подъем до 400 МГц). Все ядро состоит из 30 миллионов транзисторов (PIII отдыхает) и размещается на кристалле площадью 100 мм2 (сейчас используется 0.18-микронный техпроцесс, в будущем предполагается переход на 0.15- и 0.13-микронный). Память поддерживается как DDR SDRAM (практически уже становящаяся стандартом для высокопроизводительной графики), так и обычная SDRAM/SGRAM (возможна также поддержка DDR FCDRAM - fast cycle DRAM). Рабочая частота памяти тоже 200 МГц, на борту одной карты может быть от 8 до 128 мегабайт. В качестве внешней шины предлагаются AGP (4X, fast writes, все навороты) либо PCI 2.2. RAMDAC встроенный, 350 МГц. Максимальное разрешение: 2048x1536 на 75 Герцах. Возможно размещение двух GPU на одной видеокарте, то есть фирменная технология ATI - Maxx - живет и здравствует. Это что касается собственно ядра.

Теперь перейдем непосредственно к графическим возможностям. Здесь надо учесть, что ATI сделала своей целью фотореалистичную, быструю и естественную графику. Этим, в основном, и определяется архитектура и фичи Radeon'а. Сначала геометрический блок - Charisma Engine. Он умеет аппаратно (то есть без привлечения основного процессора) расставлять треугольники, делать преобразования координат, расчет освещения (до 8 источников), отсечение невидимых частей сцены и коррекцию перспективы. То есть классический (с выхода GeForce) блок hardware T&L (см. прошлогоднюю статью о GeForce). Впрочем, есть и отличия - во-первых, скорость в два раза выше (обмолачивает 30 миллионов треугольников в секунду против 15 у GeForce). Во-вторых, поддержка технологии Vertex Blending (а точнее, ее разновидности - Vertex Skinning). Идея заключается в том, чтобы сгладить переходы в местах стыков отдельных элементов объемной модели - скажем, суставов у модели человека. При сглаживании обильно используются матричные вычисления, существенно нагружающие процессор. Radeon же для этой операции оптимизирован (GeForce поддерживал Vertex Skinning только для двух матриц - оптимальный только для стыка двух элементов) - поддерживает до четырех матриц. Второй интересный момент - Keyframe interpolation. Эта технология позволяет автоматически морфировать модель между заданными начальным и конечным состояниями. Незаменимая штука для имитации мимики, Keyframe interpolation должна существенно добавить жизни персонажам игр. Что касается API, то к услугам разработчиков полная поддержка T&L в OpenGL и DX7. Жаль, что моя надежда посмотреть на игру с поддержкой T&L со времени выхода GeForce пока что медленно, но уверенно ползет на кладбище - разработчики явно не торопятся.

Следующий на очереди блок рендеринга - Pixel Tapestry. Имеет два конвейера рендеринга, каждый с тремя блоками текстурирования. Соответственно, делает за такт два пиксела с возможностью покрыть каждый тремя текстурами. Отсюда, путем простых арифметических операций, получаем Fill rate (то есть, скорость вывода пикселов) 400 мегапискелов в секунду (чуть поменьше, чем у GeForce, но там было хуже с мультитекстурированием), а скорость текстурирования от 400 до 1200 текселов в секунду. Как видите, ATI сделала упор именно на мультитекстурирование - то есть, опять же, на обеспечение максимально реалистичного изображения. Теперь о поддерживаемых технологиях: ну понятно, что поддерживается 32-битный цвет, сжатие текстур, большие (2048х2048) текстуры, анизотропная фильтрация текстур и прочие, ставшие уже стандартными, моменты. А вот интересное - поддерживается наложение карт среды методами Сubic, Spherical и Dual-Paraboloid Environment Mapping (самый прогрессивный - Сubic, поддерживается в DX7 и был описан в статье по GeForce). Поддерживаются также и несколько методов наложения рельефных текстур - классический Emboss (выдавливание), Dot Product3 (карта векторов нормалей к поверхности) и наиболее продвинутый EMBM (Environment Mapped Bump Mapping, поддерживающийся пока только Matrox G400). Есть поддержка эффектов Motion Blur (размывание движущихся объектов), Depth of Field (глубина резкости) и Full-scene Anti-aliasing (полноэкранное сглаживание), которые должны войти в состав DX8. А вот несколько моментов, специфичных сугубо для Radeon - во-первых, это проецирование текстур (projective textures). Самый наглядный пример - расположить на картинке кинопроектор, проецирующий динамическую текстуру (фильм) на экран. Если между проектором и экраном пройдет монстр (то бишь, 3D-модель, обтянутая текстурами), то на нем будет видна часть фильма, а на экране в этом месте будет тень монстра. Эта же технология применяется и при расчете реалистичных теней (в том числе от нескольких источников света). Во-вторых, объемные текстуры (то есть трехмерные массивы текстур). Похоже, это будет весьма серьезный плюс при использовании воксельной графики, предметов с динамической геометрией и реалистичных источников света.

Вот такой чип сделала ATI. С девизом реалистичность, реалистичность и еще раз реалистичность. Выглядит заманчиво, но что-то конкретное можно будет сказать, только когда появятся платы на Radeon, а их мы дождемся только летом. Пока же остается только ждать и сравнивать характеристики с ответным ударом NVIDIA - GeForce 2 GTS - объявленном на той же WinHEC, что и Radeon.

 

Константин АФАНАСЬЕВ

При подготовке статьи использовались материалы ATI, Ixbt и голова в качестве компилятора.

Версия для печатиВерсия для печати

Номер: 

18 за 2000 год

Рубрика: 

Hardware
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!