Сообщение от chapson.st
Про перекрестные связи слышали что-нибудь?
Про механизм освобождения от маскировки слышали что-нибудь?
какое это отношение имеет к искажениям локализации КИЗ в двухканальных системах воспроизведения? Никакого.
А я вам про что тут говорю? Десятый раз говорю, что разговор идет
не о локализации. Конкретное местоположение скрипки на концерте нашему слуху по барабану- хоть вправо, хоть влево- лишь бы две не звучали из одной точки. Для вас, я так понимаю, это новость. Вы думаете, что самое крутое в пространственном слухе- это возможность определять местоположение источника. Вы заблуждаетесь. Самое крутое и важное для восприятия музыки- умение слуха делить приходящие звуки на разные звуковые образы. Я уже говорил об этом, и я не знаю, почему вы не можете этого понять. Наверное, не хотите.
Вот пример- на сцене рядом друг с другом сидят два скрипача(плечо в плечо). Вы сидите в двадцати метрах от них. Что вам скажет ваш слух насчет локализации? Он скажет, что источники практически в одной точке. А что вам скажет
механизм, с помощью которого мозг делит звуки на разные источники? Он вам скажет, что источник не один. Это -важно. Это- необходимо. Это- решающий фактор в восприятии музыки.
Смотрите- есть два источника - правее и левее оси головы. В правое ухо попадает скажем волна частотой 1 кгц. Через к примеру 5 микросекунд эта же волна попадает в левое ухо.Значит это один источник. Слева в левое ухо попадает 2кгц и через 2 микросекунды волну 2 кгц фиксирует правое.
Значит это второй источник. Но локализовать по этой задержке мозг не будет. Он просто будет знать, что все волны, которые придут с отставанием между ушами 5 микросекунд и сначала будут попадать в правое ухо- это один сигнал. А все, которые будут сначала бить в левую перепонку, а через 2 микросекунды в правую- это совсем другой сигнал. Значит получив даже две волны одинаковой частоты(желательно конечно неодновременно), одну из них мозг интерпретирует, как часть спектра правого сигнала, а другую-левого
Одного только не понял - они брали моно-трек, разделяли на две дорожки, и потом двигая одну из них локализовывали инструмент в пространстве вместо того, что бы крутить ручку панорамы
Нет, Паша, не локализовывали и не локализовали и даже не лаковылизовывали. Сдвигая один из одинаковых сигналов на сэмпл, мы задаем мозгу ту самую кросскорелляционную функцию. Если у тебя проект в 44100 сэмплов в секунду, то сдвигая канал на один сэмпл, ты получаешь задержку между правым и левым сигналом равную 1/44100 секунды. Делим 44100 на 1000, и получаем, что в одной миллисекунде у тебя примерно 44 звуковых отсчета(сэмпла). Значит между сэмплами 1000/44=22 микросекунды. Для человека допустимые значения реальных задержек между ушами лежат в пределах 630 микросекунд. Значит мы сможем задать разные задержки для (630/22=28) двадцати восьми звуков в нашем миксе. Одной скрипке- сэмпл, другой- два сэмпла, третьей-три и т. д. Такая маленькая задержка на тембре практически не сказывается, проблем с фазой нет. Значения задержек не соответствуют реальному местоположению источников, но оно нам и не надо- это совершенно другой механизм, к локализации отношения не имеющий. Главное, что у каждого звука- своя задержка между каналами. Нам нужна именно она для того, чтобы не путать, к какому звуку какая волна относится.
Но есть проблема- даже задержав сигналы"как в жизни", мы не можем задействовать этот механизм освобождения от маскировки, поскольку мозгу в этом мешают перекрестные сигналы. Я уж было думал- тупик, но благодаря интернету откопал такую вот вещь
http://www.weldroid.net/2010/02/ambiophonics-processor-vst-ambioone.html
Конечно, мануальчик надо почитать, с настройками разобраться. Вообще эта штука придумана, чтобы компенсировать перекрестные сигналы при прослушивании записей, сделанных с применением фазового метода, но никто не запрещает попробовать через нее сводить.
Я вот попробовал- мне понравилось. Не смотря на то, что таких коротких задержек мы не слышим, мозг тем не менее прекрасно разбирается "кто есть кто".
Субъективно КИЗ смещается в сторону ранее приходящего, до того момента, как мы начнем слышать их два независимо. Это и есть "эффект Хааса", многократно описанный во всякой разной литературе.
Короче, нифига вы не поняли. А раз не понимаете, о чем идет речь, не нужно вводить в заблуждение других. Хаас к этой теме имеет косвенное отношение.
И не надо отсылать меня к литературе, которая давно и внимательна мною изучена. Лучше прислушайтесь к своим советам сами.
Т.е. уровень знаний наших "исследователей" был понятен изначально
Я о уровне ваших знаний тоже для себя сделал вывод.
chapson.st, я вас про малыша, как папу спрашивала
В смысле, какие параметры, на кого больше похож: на маму или на вас?
Внешне- я, характер- пока под вопросом.
Ифрита призвать к ответу
за смущение неокрепших мозгов
Неокрепшими по крайней мере шевелить можно. А вот усохшими и закостеневшими думать трудновато.
Что имеем? Используя указанный плаг, можно компенсировать перекрестные сигналы. То есть сделать "как в жизни"- от одного источника-два, а не четыре сигнала. Затем каждому источнику дать свою задержку между каналами. На основании этих данных мозг сможет разделять информацию, содержащуюся в волне, на слуховые образы.
Другой вариант- сводить в наушниках,используя все те же задержки, но после выполненного сведения применить этот плаг последним в цепочке на мастере.