samplitude vs logic vs cubase

  • Автор темы Автор темы pbb
  • Дата начала Дата начала

pbb

Active Member
12 Янв 2004
628
164
43
Привет всем.Вот для сравнения записал 3 одинаковых фрагмента в этих трёх замечательных прогах Samplitude8 Cubase2.2.0.33 и Logic5.51 Играют только VSTi и VSTобработки на мастере ничего нет.Если кому интерестно берите это с pbb49-1@mail.ru 123456 16бит 44100 3*19сек всего 7.3мб
мне кажется что есть разница в звуке,но она очень мала и часто не стоит тех споров которые идут на этутему, что лучше каждый сам для себя может выбрать
возможно что для такого теста я не совсем подходящий материал выбрал но я его для себя делал посчитав что в таком сочитании звуков можно услышать разницу в ньюансах
 
Я думаю может спектранализатор поможет в жтом деле более наглядно увидеть что к чему??
 
По частотке-то они одинаковые. Я по-крайней мере не услышал сколь-либо значимой разницы.
 
А вообще по теории программирования,как там все это пишется и происходит??
К каждой проге пишется свое допустим, звуковое ядро со своей спецификой,или как оно там происходит??
 
Originally posted by Mono_Substance
А вообще по теории программирования,как там все это пишется и происходит??
К каждой проге пишется свое допустим, звуковое ядро со своей спецификой,или как оно там происходит??

Ряды Фурье есть такая штука :contract:
 
Ну что-то в универе я учил под таким названием,но все же для меня это темный лес!
 
А причем ряды Фурье в секвенсоре? Поподробнее можно?
 
Опять Фурье, как я боюсь этого.
Ведь это неправда, правда?:help:
 
Я думаю, что здесь дело в особенностях микширования сигналов, а проще говоря их сложения. Кто знает, как вычислить напряжение сигнала в один момент времени?Получаемого путем сложения например трех или четырех сигналов с известными значениями напряжения в этот же момент времени (если рассматривать электрические звуковые сигналы, например в микшере)
 
pbb49
Напряжение это и есть амплитуда сигнала - т.е. простое сложение

имо отличия в звуке:
1) в качестве 16->32 float
2) в качестве встроенных в прогу плагинов
3) в обработке клиппинга
4) 32 float->16
 
Да, вот меня тоже интересует, может, кто знает, каким именно образом физически в звуковом буфере происходит микширование (сложение нескольких сигналов в один без перегрузок и тому подобных нехороших вещей, которые по идее должны произойти, если решить вопрос простым сложением сигналов)
 
причем тут Фурье (работающие фурье процессоры я рарабатывал лет 5 тому назад)
вся обработка идет во временной а не частотной области
все дело в точности вычислений
в этом я солидарен с beholder
 
Ну что Murza, спрятался?
Не хочешь нам объяснить, каким боком ряды Фурье участвуют в работе секвенсора?

:lol:
 
Объясните мне в чем состоит сложность для цифровых сумматоров звуковых сигналов. Например, для двух сигналов в каждый определнный момент времени имеется два значения амплитуд этих самых двух сигналов и все вычисление для этого момента времени заключается в сложении двух чисел. Итого имеем: число треков*44100(96000) операций сложения в секунду. Если проблема лишь в том, что у результата отбрасываются младшие разряды и от этого накапливается округление (ошибка), то почему бы не сделать 512 битную или сколько там надо промежуточную точность этих вычислений в оффлайне, этого хватит для вычислений без округлений. Ради бога, я подожду чуток дольше результата миксдауна, только лишь бы наконец успокоится и больше не слышать разговоров о том, какая прога лучше микширует.
 
igorrr

Ошибка округления накапливается не только (и не столько) при суммировании, сколько при обработке трека разными эффектами (в это число входит и регулировка громкости и панорамы). От того, насколько хост хорошо умеет маскировать (и компенсиовать) эти ошибки, и зависит качество результата.
Из теста видно, что они делают это более-менее одинаково.
Потому руководствуйся при выборе хоста другими параметрами (удобством работы, требуемыми возможностями, привычкой, наконец...)
 
1) обработка разными эффектами:
инсерт - хост передает эффекту аудио данные, которые обрабатывает эффект и возращает обратно хосту - где здесь может проявиться грязь разных хостов я не понимаю (рассматриваем случай качественных эффетов и хостов одной битности);
посыл - уже рассмотренная обработка эффектом, умножение на определенное число, сложение с оригиналом - арифметика для всех должна быть одинаковой не зависимо от хоста, поэтому ошибок тоже быть не должно для разных хостов.

2) регулировка громкости - умножение амплитуды сигнала в определенные моменты времени на одно число "колличество сэмплов" раз - это даже я сделаю с помощью калькулятора и результат не будет отличаться от трезвого дяди васи с таким же калькулятором;

3) изменение панорамы - та же регулировка громкости каналов по отдельности путем умножения левого и правого канала (все тех же численных значений амплитуды) на свое число - где можно ошибиться и в этом случае мне не понятно. Случай стандартной панорамы без использования психоакустики.

Приговор - подсудимые по разному знают арифметику, поэтому и получают разные результаты, кто-то все честно отдает государству, а злодеи округляют остатки себе в карман. Для борьбы предлягаю использовать калькуляторы с заоблочной разрядностью - злодеи смогут округлить на свои нужды только копейку за 100 лет, а таких денег нам уже и не жалко!

Нюансы в звучании хостов одинакового класса могут быть результатом неодинаковости тех чисел, на которые умножаются данные, т.к. 3 дБ каждый может представлять по-своему, ведь дБ - это относительная величина и в карман его не положишь.
 
Serg196:
в это число входит и регулировка громкости и панорамы
где где где/кто это слышит/чем это замерено и.т.п.??? 8-[]


igorrr
;) праально излогаешь, там где есть прекрасные математические объяснения - нет места шаманизму и бубнам!
 
У лоджика например значений громкости всего 127, она меняеца интервалом в 2 или 3 (а может и 4, я не помню уже точно) десятых, плюс panning law -3. А в кубе и сампле может быть и -4,5 - тут уже разница будет.
 
Насчет цифрового сложения сигналов. Для меня совсем неочевидно, что при цифровом микшировании происходит простое сложение значений амплитуд и отбрасывание младших разрядов. Динамика обоих сигналов от такого сложения должна сильно пострадать. Или я не прав?
 
вообще любой электронный микшер должен складовать сигналы так как звуки складываются в воздушной среде
 
Al Junior
А ручками значение (с шагом 0.01) разве не считается (Cubsx)?
 
koss
зачем отбрасывание в общем случае? Например, если просто складывать 2 16bit ных числа.

pbb49
Аналоговые миксеры так не делают, почему-то. Почему цифровые должны?
 
А вообще в воздухе два равноудаленных одинаковых,сфазированных источника звука будут давать удвоенную амплитуду звукового давления??
 
А вообще в воздухе два равноудаленных одинаковых,сфазированных  источника звука будут давать удвоенную амплитуду звукового давления??

Нет. Они дадут интерфереционную картину. В идеальном воздухе. В реальном будет что-то похожее.

вообще любой электронный микшер должен складовать сигналы так как звуки  складываются в воздушной среде
Да вы что, побойтесь бога! Как они там складываются - абсолютно точно НИКТО не знает.

Насчет цифрового сложения сигналов. Для меня совсем неочевидно, что при цифровом микшировании происходит простое сложение значений амплитуд и отбрасывание младших разрядов. Динамика обоих сигналов от такого сложения должна сильно пострадать. Или я не прав?

Видимо нет. ;) На этом весь аддитивный синтез построен. :rupor:
 
В общем, я прикинул, и пришел к выводу, что действительно происходит обычное сложение, без отбрасывания чего бы то ни было, поэтому динамика сигналов как таковых не страдает. Если в конкретный момент у двух сигналов будет суммарная мощность, превышающая 0 dB, то происходит обычное клиппирование. Задача звукорежисера стоит в микшировании сигналов с большой мощностью так, чтобы не произошло такого клиппирования. То есть применять компрессию, манипулировать громкостью или тщательно подбирать сигналы так, чтобы пики не совпадали. (но это конечно уже не всегда в RealTime).
В таком случае меня интересует другой вопрос - существует ли в микширующих программах (речь не о трекерах и тому подобных вещах, а о программах, позволяющих проигрывать несколько сигналов одновременно на один и тот же выход, например, диджейские программы) такое понятие, как плавно нарастающая по глубине (чтобы звук не изменялся внезапно на компрессированный) автоматическая компрессия сигналов, поступающих одновременно в выходной буфер карты, позволяющая избежать возможного клиппирования выходного сигнала? (естественно, плавно затем снижающаяся, когда необходимость в микшировании нескольких сигналов отпадает) Может, кто-нибудь о подобной плавной компрессии знает?
 
koss
Эта плавная компрессия называется Side-Chain компрессией. Когда громкость исходного трека зависит от уровня сигнала управляющего трека. Этот приём довольно часто используется в звукорежиссуре. Но сомневаюсь, что во всяких диджейских программмах такое будет. До сих пор я не нашёл порядочного стерео Side-Chain компрессора даже в DX-VST плагинах. Пришлось самому мутить из двух моно Waves'овских :) Копался около часа с настройками шин и компрессоров.
Но я сомневаюсь, что наших диджеев вообще подобная проблема волнует. :) Многие "диджеи" даже не имеют понятия о настройке тона бочки в композиции, куда уж там до этих тонкостей. :)
Короче, при встрече если хошь - притащу проект, посмотришь, как всё реализовано и работает.
 

Сейчас просматривают