Запасаемся GeForсe и ATi !

  • Автор темы Автор темы P00H
  • Дата начала Дата начала
Александр Бакаткин

Использование отдельных устройств для ускорения вычисления физики помимо ЦПУ и графических процессоров сегодня широко обсуждается как пользователями, так и ведущими чипмейкерами. Предлагается несколько вариантов развития событий - от использования дискретного ускорителя (например на базе процессоров PhysX P1) до установки третьего графического адаптера, на который и должна быть возложена функция просчёта физической составляющей в компьютерных играх.

Однако с приходом на рынок многоядерных процессоров от Intel и AMD вполне можно ожидать, что просчёт физики ляжет именно на плечи ЦПУ. Более того, калифорнийская компания уже провела успешную демонстрацию подобной функциональности своих чипов на примере приложения Ice Storm Fighters от Futuremark, специально "заточенной" под четырёхядерные процессоры.

Во время работы всех четырёх процессорных ядер наличие большого количества сложных для просчёта элементов и сцен, включая водную поверхность, взрывы, и т.д., не приводило к "торможению" системы. С целью показать возможности именно четырёхядерных чипов представители компании намеренно исключили из работы два процессорных ядра, что привело к резкому снижению числа FPS.

Более того, разработчики утверждают, что использование четырёхядерных процессоров эффективнее дискретного физического ускорителя - вследствие значительно более низких задержек, возникающих при передаче данных от ФПУ к ЦПУ.
Источник: VR-Zone
 
В любом случае пока это еще в зачаточном состоянии, так что реальных продвижений ждать долговато еще...
 
Достоверно известно, что крупнейшие компании ATI и NVidia, ведут разработку систем позволяющих использовать GPU для сторонних вычислений. Насколько я знаю ATI уже детали опубликовала...
 
<div class='quotetop'>QUOTE(\"J_on\")</div>
Насколько я знаю ATI уже детали опубликовала...[/b]
ATI уже дрова выпустила, некоторые распределённые вычисления уже народ считает, по заявлению разработчика скорость просчёта в 20-40 раз быстреее чем на CPU, так что тут даже четыре ядра не конкуренты GPU имхо.
 
Думаю торопиться не стоит, а то потом окажется что для этого выйдет специальная видеоплата, со специальными драйверами... Да и потом наверное отдельную плату в отдельный слот поставить будет не сложно!
 
Полностью cогласен с sunet! В итоге Steinberg в сотрудничестве с каким нибудь производителем СPU - GPU - SPU выпустит железяку типа VST-VSTi ускорителя! И все будут в шоке! :)
 
<div class='quotetop'>QUOTE(\"P00H\")</div>
тут фишка в том, что современные процы имеют производительность до 5-8 гигафлопс, а современный GPU типа Nvidia Quadro до 200 гигафлопс[/b]
Интересно, а почему такая гигантская разница?
 
Мое ИМХО, что время у этой технологии было, но прошло. Сейчас состояние уже такое, что в разумные сроки все это стандартизировать и наклепать плагинов не успеют, придут многоядерные процессоры и вся эта мишура станет не нужна. Quad core уже в этом году станет доступен, пока по 1000$ правда, но все же. А дальше идет уклон в сторону интегрирования всех вычислительных блоков в цпу, амд вот видео в проц интегрировать собирается, IBM делает подобие кучи dsp в проце (IBM Cell).
Короче, год назад это было интересно. А сейчас уже как-то не очень...
 
<div class='quotetop'>Цитата</div>
Короче, год назад это было интересно. А сейчас уже как-то не очень...[/b]

Почему я раньше эту тему не заметил?... зря.

И так мое мнение, я не согласен с insane, потому что разгрузка ЦПУ всегда будет поблемой, а дополнительная преблуда для вычислений и вследствии повышения производительности, это только плюс.
Короче было бы лучше, если плагины не делали с данной технологией, а сделали б просто железку баксов за 200 и подержку этого всего только у хостов (Куб, ФЛ Студ., Санар, и тд).
Уверен, что даже DDR3 и 4-ех ядерные процесора нас в создании музыки от перегрузов системы полностью не спасут, ну на первое время, потом придут новые плагины с новой технологией и писец короче.
Штука просто суперская должна получится, но лучше б это была просто специалезированая плата к пр. от M-Audio. Ну их этих "Креативов", и Штейнбергов.... особенно последних, ибо они пнут туда какой нибудь свой урезаный Кубейз + ещё херни по сути не нужной и будет это стоить не 200 а все 600, да ещё + Синкрософт (чтоб их панос пробрал, блин), эт еще + 100 баксов (как не больше), тогда вообще писец по полной будет, эт точно, ибо досвидание Н2О или мечты об этой плате.

Тема интересная, по быстрей бы они это сделали. :rolleyes:
 
Theos, Ну почему? Все идет к тому что видеоускоритель и прочая будут встроены в процессор. Будет гетерогенный многоядерный CPU. Погуглите по AMD Fusuion, Sony Cell - это первые ласточки, дальше больше будет.
Кто будет мучаться сейчас, без стандартного API и SDK разрабатывая плагины, которые пойдут на свалку истории через год?

Короче было бы лучше, если плагины не делали с данной технологией, а сделали б просто железку баксов за 200 и поддержку этого всего только у хостов (Куб, ФЛ Студ., Сонар, и тд).
А вот это технически затруднительно, вы видимо не очень то представляете как программы с железом связаны. Так точно никто делать не будет.
 
<div class='quotetop'>Цитата(insane @ Dec 23 2006, 08:24 PM) [snapback]386039[/snapback]</div>
Короче было бы лучше, если плагины не делали с данной технологией, а сделали б просто железку баксов за 200 и поддержку этого всего только у хостов (Куб, ФЛ Студ., Сонар, и тд).
А вот это технически затруднительно, вы видимо не очень то представляете как программы с железом связаны. Так точно никто делать не будет.
[/b]
Дык сделали уже такую железку и давно юзает её народ в большом кол-ве.. Тока не у нас.. :rolleyes:
http://www.museresearch.com/
 
J_on,
Я думаю, что это будет реализованно уже в nv80
Не будет, а уже реализовано в nv80. Уже есть для него специальный компилятор C (правда, (пока?) не для всех, а только для членов девелоперской программы nVidia). То есть, в принципе, ни с разработкой новых плагинов, ни с портированием существующих для работы на GPU особых проблем быть не должно. Другое дело, что может быть никто не будет этим заниматься (просто мало кто об этом знает, и в основном программерам лень осваивать новые технологии, даже если это очень легко).
 
<div class='quotetop'>Цитата(Megakazbek @ Dec 23 2006, 09:56 PM) [snapback]386151[/snapback]</div>
Не будет, а уже реализовано в nv80. Уже есть для него специальный компилятор C (правда, (пока?) не для всех, а только для членов девелоперской программы nVidia). То есть, в принципе, ни с разработкой новых плагинов, ни с портированием существующих для работы на GPU особых проблем быть не должно. Другое дело, что может быть никто не будет этим заниматься (просто мало кто об этом знает, и в основном программерам лень осваивать новые технологии, даже если это очень легко).
[/b]

Есть и другой нюанс. Если будет общедоступный SDK, компиляторы и дебагерры, то платформа в плане защищенности от взлома ничем не лучше нейтив CPU. Поэтому наврядли коммерческие плагинописатели с ходу бросятся осваивать эту нишу.

Потому что для серьезных девелоперов с серьезными бюджетами есть и другое более защищенное решение - DSP плата на основе GPU. Тем более, что прецедент имеется: UAD-1 построен на GPU MPact, который несколько лет назад использовался для видеокарт и до сих пор применяется в DVD плеерах.

За 4 года ни одного ломаного плага.
 
<div class='quotetop'>Цитата(supersonic @ Dec 23 2006, 10:24 PM) [snapback]386162[/snapback]</div>
Есть и другой нюанс. Если будет общедоступный SDK, компиляторы и дебагерры, то платформа в плане защищенности от взлома ничем не лучше нейтив CPU. Поэтому наврядли коммерческие плагинописатели с ходу бросятся осваивать эту нишу.

Потому что для серьезных девелоперов с серьезными бюджетами есть и другое более защищенное решение - DSP плата на основе GPU. Тем более, что прецедент имеется: UAD-1 построен на GPU MPact, который несколько лет назад использовался для видеокарт и до сих пор применяется в DVD плеерах.

За 4 года ни одного ломаного плага.
[/b]
Ну, скажем так, если кто-то пишет для Native CPU, то он уже готов к тому, что его плаг скорее всего сломают. Поэтому от того, что он сделает еще и версию для GPU, никому хуже не станет. Тем более, что при наличии C-компилятора портировать с CPU на GPU будет нетрудно (в идеале - просто перекомпилировать кусок кода).
А если сделают DSP-плату на основе распространенного и полностью открыто документированного GPU, то даже если дебаггер для GPU на видюхе не будет работать на DSP, то, я думаю, исправить это будет вполне под силу небольшой группе энтузиастов, было бы желание и потребность.
Вообще, если идея использовать GPU дойдет до программистов аудио-софта и там приживется, то ожидать в первую очередь можно того, что многие уже существующие программные VST будут переделаны для исполнения на GPU, а уже во вторую очередь - разработку каких-то новых продуктов, специально написанных на GPU и использующих его возможности на полную мощность.
 
<div class='quotetop'>Цитата(Megakazbek @ Dec 23 2006, 11:32 PM) [snapback]386193[/snapback]</div>
А если сделают DSP-плату на основе распространенного и полностью открыто документированного GPU, то даже если дебаггер для GPU на видюхе не будет работать на DSP, то, я думаю, исправить это будет вполне под силу небольшой группе энтузиастов, было бы желание и потребность.
[/b]

Дык если б только в софтовой части дело... У разработчиков таких плат имеется практически безграничное поле для защитных маневров - архитектура платы. Теоретически сломать можно все, но сделать продукт, на взлом которого у лучших хакеров уйдут ГОДЫ труда это более чем реально. Там же не один GPU, а вспомогательные процессоры, контроллеры и флеш помноженные на криптографию и защиту кода и все это в любым мыслимых и немыслимых комбинациях.


<div class='quotetop'>Цитата(Megakazbek @ Dec 23 2006, 11:32 PM) [snapback]386193[/snapback]</div>
Вообще, если идея использовать GPU дойдет до программистов аудио-софта и там приживется, то ожидать в первую очередь можно того, что многие уже существующие программные VST будут переделаны для исполнения на GPU, а уже во вторую очередь - разработку каких-то новых продуктов, специально написанных на GPU и использующих его возможности на полную мощность.
[/b]

Да поживем, увидим. Идея-то хорошая.
 
<div class='quotetop'>Цитата</div>
амд вот видео в проц интегрировать собирается[/b]
Точно. А какая нть Creative возьмёт и (опередив всех)
припаяет к звуковухе GPU. И будет всем счастья... может быть. :D
И дабавит немного зеленых президентов в ценник.
Но, несомненно идея у них интересная.
Тока может при нагрузке на GPU (на видюхе)
(реверочек то хочется получше) :lol:
начнет глюкавить видеовыход.
И народ ломанётся за более крутыми Джифорсами,
что собссно на руку производителям.
И, пока будет отлаживаться софт и дрова, может уже все будут
юзать Core 2 Quattro, которого заглаза хватит на все музыкальные
нужды.
Поживём - увидим. :)
 
Vosk, Receptor тот же комп, с обычным CPU. А про числодробилки типа G80 уже правильно сказали - как только будет нормальная среда разработки и все стандартизировано, так и начнут под это писать. Причем не только муз. софт.

А пока все не устоялось, никто не будет выпускать продукт под платформу, будущее которой под пока вопросом. Кстати, сейчас все стало гораздо ближе к возможности использования GPU. Nvidia выпустила CUDA SDK. Правда, сколько времени уйдет на обкатку всего этого дела, и сколько на инерцию производителей...
 
Ага моторолловские ДСП 56к нервно курят.
Все коммерчески успешные синты такие как валдорф, вирус, новэйшен и др. имеют в основе дсп вышеуказанного семейства (даже поверкор). Даташит на них посмотрите.
Тактовая у них в районе 100-150 MHz. Во вторых вы не в курсе почему на синтах стоит SRAM память???
Дак вот поинтересуйтесь (тоже даташиты почитайте).
Вы где нить видюхи со срам на борту видели, так успокойтесь и не бредьте.
 
darlock,
ты вместо того чтобы шитом тут воздух сотрясать - линки соответствующие бы дал, а SRAM например лет десять назад на многих древних видюхах стояла, да и начиная с i386 прцов она на кеше стоит , так же как и у моторолл и интелов и амд.

з.ы. кстатит у UAD тоже тёмная лошадка на месте проца стоит, по внешнему виду один в один старый чип от s3 video. однако звучать это карте не мешает.

и самое главное - не сравнивай архитектуру GPU с CPU - это абсолютно разные вещи.
 
P00H, GPU с CPU - это абсолютно разные вещи.
однако, они все ближе и ближе :)
darlock, наверное, имел в виду латентность памяти. Что типа у sram она очень маленькая и типа это очень круто для звука.

Чтож, с этим спорить не буду DDR-II по латентности намного больше, чем SRAM, однако попробуйте уловить задержки в 30 нс :)
 
<div class='quotetop'>Цитата(insane @ Dec 28 2006, 12:29 PM) [snapback]387796[/snapback]</div>
P00H, GPU с CPU - это абсолютно разные вещи.
однако, они все ближе и ближе :)
darlock, наверное, имел в виду латентность памяти. Что типа у sram она очень маленькая и типа это очень круто для звука.

Чтож, с этим спорить не буду DDR-II по латентности намного больше, чем SRAM, однако попробуйте уловить задержки в 30 нс :)
[/b]

вот тут спешу не согласится. ИМХО чем дальше - тем все различнее архитектура ГПУ и ЦПУ (G80 тому пример, R600 на подходе).
а по латентности - задержка в 30нс - это задержка доступа к памяти к одной ячейке....а если алгоритм обработки будет требовать циклического обращения к ячейке скажем милион раз в секунду или даже больше?? тут уж разница даже в 5 нс будет достаточно заметна. А современные синты обсчеты делают насколько я понимаю очень серьезные, если грузят достаточно мощные компы по самое нихачу.
 
<div class='quotetop'>Цитата</div>
вот тут спешу не согласится. ИМХО чем дальше - тем все различнее архитектура ГПУ и ЦПУ (G80 тому пример, R600 на подходе). [/b]
:lol: G80 - уже практически ничем не отличается от проца, 8 универсальных блоков обработки с ALU и FPU, динамичские ветвления и переходы, даже не знаю уже чем он от CPU отличается принципиально. Разве что аппаратным блоком текстурной фильтрации. :)

Про наносекунды и пр.: Пусть у нас 44.1 кГц, память медленная DDRII-533. Возьмем с запасом латентность в 10 тактов.
Получаем: на один сэмпл: 533 000 000 / 44100/ 10 ~= 1200 обращений.
По-моему, вполне достаточно, 1200 обращений в память на сэмпл..

Я уж молчу про то что именно СИНТАМ памяти вообще мало надо, и основной считающий алгоритм вообще может полностью в кэш современных процов (2-4МБ) влезть. Там про задержки вообще смешно говорить :)

<div class='quotetop'>Цитата</div>
А современные синты обсчеты делают насколько я понимаю очень серьезные, если грузят достаточно мощные компы по самое нихачу.[/b]
Все смешалось -процы, память... так чего не хватает то, процов или памяти? (hint: никто из современных десктопных процов, включая двухъядерники, не может полностью загрузить DDR2-800)
 
Вот что пишет Алексей Ванеев на своем форуме, погоняв Куду на 8800

http://www.voxengo.com/forum/ar/1522/?offset=10


<div class='quotetop'>Цитата</div>
OK, I have Nvidia 8800 GTS graphics card with me. And CUDA examples are working fine.

However, as I've replied earlier, CUDA is still in beta, and I've studied it enough to make intermediate conclusions.

I'm now saying with confidence that it features 32-bit floating point only.

As for the like '50 CPUs' performance, this is theoretically correct, but practically this may not be achievable for all audio calculations. However, as far as simple 'biquad' equalizer goes, it is really possible to process 384 channels each having 25 bands (ouch) at 192kHz per second (may be degraded further by memory accessing performance limits).

Of course, complex audio plug-ins may not be able to utilize such huge performance due to their complex data flow, which cannot be accommodated by CUDA's architecture easily. On the other hand, from complex audio project perspective, it is very probable that most audio processing elements can be combined into 'packets' and thus processed with a higher performance.

Still, CUDA is in beta, so it's not a time right now to make final conclusions.[/b]

Это ж машина-зверь! 384 канала с 25-полосным eq на каждом, при 192 кГц :blink: Пусть это бета, пусть это простейший EQ, но каков вычислительный потенциал.. Матерь божия :huh: UAD, Поко и С2D это уже оказывается вчерашний день. В замечательное время живем!
 
Тему теперь можно переименовать в " запасаемся GeForсe 8800'ыми !" Пока только 8800 поддерживает CUDA :(
 
<div class='quotetop'>Цитата(supersonic @ Mar 22 2007, 05:44 PM) [snapback]424745[/snapback]</div>
Вот что пишет Алексей Ванеев на своем форуме, погоняв Куду на 8800

http://www.voxengo.com/forum/ar/1522/?offset=10
Это ж машина-зверь! 384 канала с 25-полосным eq на каждом, при 192 кГц :blink: Пусть это бета, пусть это простейший EQ, но каков вычислительный потенциал.. Матерь божия :huh: UAD, Поко и С2D это уже оказывается вчерашний день. В замечательное время живем!
[/b]

было бы неплохо еще, чтобы кто-нибудь алгоритм настрочил такой же как в уад и поко :)
эти же все карты выступают сейчас в качестве донгла скорее, нежели ускорителей.
 
Все замечательно, но не все обработки хорошо укладываются в потоковую архитектуру. Плюс пока что (вроде nVidia обещала в следующем чипе доделать) все вычисление в 32bit float. Не знаю, возможно это и достаточно для звука, но все-таки хотелось бы все промежуточные вычисления в 64bit float (double то бишь) делать. По крайней мере почти все научные расчеты делают в double.
Иногда и его не хватает, очень хорошо видно при расчете фракталов, на некотором увеличении появляются ступеньки в цвете :)


Да, еще и производителей качественных алгоритмов надо заинтересовать. Насколько больше денег они срубят на своем железе?
 

Сейчас просматривают