Честно скажу, статью полностью не читал - у меня голова пухнет от многобуков и обилия малознакомых слов.
Ну е мое, говорю же- надо вникнуть. Один раз поймешь- на всю жизнь запомнишь. Попытаюсь обьяснить "на пальцах" суть "многобуков":
Живем мы на планете Земля много-много лет. В течении эволюции у нас сформировались органы слуха- уши. Снаружи вроде все просто- уши как уши.(хотя и здесь все далеко не просто, ну да ладно). А вот внутри- сложнейшая система, которую до сих пор никто толком не изучил. Но есть в этой черной дыре кое-какие просветы в виде трудов в том числе и упомянутой выше Л.Алдошиной.(прочитать обязательно).
Откровение номер раз: в природе не существует стереозвука. Любой звук, который мы в силах узнать (а главное- определить точное положение источника в пространстве) является по сути своей точечным(моно).
Придумай навскидку любой звук: выстрел, стук топора, речь собеседника, жужжание пчелы...
Все вокруг нас- точечные источники. Даже когда речь заходит о близко играющем рояле, мы не можем назвать его стерео, потому что наш слух все равно пытается уловить направление каждого удара молоточка. В процессе эволюции нам было крайне важно точно определять направление прихода звука(треснула ветка под лапой хищника- доли секунды чтобы определить с какой стороны).
Откровение номер два:Наше восприятие звука -стереофонично. Если изобразить схематично, то нужно нарисовать треугольник. В двух его углах- правое и левое ухо. В оставшемся углу- источник звука. Теперь можешь наставить точек в любых местах и к ним провести по две прямые от "точек ушей". Получится бесконечное множество треугольников. Именно так мы слышим. При этом заметь, что при каждом положении источника разница в длине двух лучей разная(сорри за каламбур). То есть если источник строго впереди, то лучи одинаковой длины. Начинаем смещать источник в сторону- разница длины увеличивается вплоть до положения источника строго сбоку. Как только источник смещается еще дальше(за спину), разница снова уменьшается, но здесь в определение местоположения включается уже другой механизм- фильтрации высоких частот(благодаря строению ушной раковины).
Так вот разница в длине лучей(временная) "зашита" в нашем мозгу намертво. Если два коррелированных(похожих) сигнала пришли с разницей во времени равной к примеру 30 микросекунд, значит источник- "там". И именно разница во времени прихода "первой волны звука" дает возможность мозгу освободиться от маскировки другими звуками, пришедшими с другой разницей(эта разница и называется кросскореляционной функцией).
Что же мы имеем при воспроизведении в стерео?
Как ни задерживай сигнал в одном из каналов, их(сигналов) все равно не два- их четыре. Допустим мы сдвинули хэт левее. Находясь между колонками, мы получим слева сигнал "громче", но в правой колонке он тоже будет. Мозг конечно скажет нам, что хэт левее но...
В стремлении просчитать кросскореляционную функцию, он сначала уловит в левое ухо сигнал левой колонки, затем этот же сигнал достигнет правого уха, приблизительно одновременно в правое попадет сигнал правой колонки и он же достигнет левого. Сколько насчитали сигналов? И все они коррелированы(похожи). Не в силах справиться с поставленной задачей(найти подходящее значение задержки в "базе данных"), мозг не сможет освободиться от маскировки другими сигналами и выдать убедительную пространственную картину.
Когда вам говорят, что разведение тембрально похожих инструментов по панораме помогает бороться с частотными конфликтами, помните- помогает оно тем лучше, чем "монее" звучит инструмент. И это "монее" относится не к способу записи, а к способу воспроизведения- в идеале они должны звучать полностью слева-справа. Вот тогда каждому из сигналов мозг сможет просчитать кроссс..функцию и освободиться от маскировки.
Капец, короче! Послушайте хоть раз фонограмму, записанную с помощью искусственной головы в наушниках- вы поразитесь реализму и точности локализации инструментов и слушать музыку в колонках уже не захотите.
:music: