Синхронизация DAW с железным лупером и гитарным процессором

StupidPeanut

New Member
24 Июн 2020
1
0
1
41
Заранее извиняюсь за вопросы заданные наверняка уже не раз, но у меня никак не получается самостоятельно разорабраться с темой синхронизации DAW и железок. Прошу учесть также, что я не являюсь профессиналом и даже музыкантом. Для меня это хобби, соответственно не претендую ни на что.

Итак, опишу что я пытаюсь делать и какие проблемы/непонятки имеются:
Я пытаюсь играть лайвсеты используя железный лупер, гитару, бас и гитарный процессор. Записываю партии баса и ритм-гитары и потом поверх них играю партию соло-гитары.

Располагаю следующими железками:
- лупер Headrush Looperboard
- гитарный процессор Line6 Helix
- midi-интерфейс ESI M4U
- компьютер с Ableton Live 10

В какой-то момент времени мне стало мало встроенных в лупер барабанных партий, хотелось иметь возможность более гибко управлять ударными (хотя бы включать/выключать разные паттерны), но такой функциональности не предусмотрено и я начал догадываться что нужна драммашина.
Раздумывая на тему драммашины я чаще склонялся к софтверному варианту c Ableton Live, мне кажется такой вариант гибче и удобнее. Более наглядная работа с барабанными партиями по сравенению с железными драммашинами, удобство редактирования и рулежки вживую с использованием MIDI-контроллера вроде Launchpad'а. Вообще связка Ableton Live и Launchpad/Push мне нравится еще и тем, что с помощью контроллера можно играть партии софтовыми синтами. Live я потихоньку ковырял, но из-за непонимания как этим правильно пользоваться сделал выбор в пользу железного лупера.
Однако сейчас появилось желание вместе с железным лупером все-таки использовать и DAW в качестве драм-машины.

Но все оказалось не так просто. Быстро выяснилось, что если запустить партию midi-ударных параллельно с железныым лупером, то слышно расхождение.
При этом коммутация выглядит так: гитара в процессор, процессор в лупер, выход аудио с компа в лупер (этот поток аудио я не записываю, он просто подмешивается в вывод), далее в наушники. Комп подключен к MIDI-интерфейсу по USB, к нему же подключены лупер и процессор, которые настроены принимать MIDI-clock. Live отдает MIDI-clock, MIDI-интерфейс его репитит во все дырки и все по идее счастливы. В теории. А на практике - фиаско.

Я засел гуглировать и выяснилось, что причина в том, что DAW не может выдавать ровный клок и связано это с особенностями приоритезации процессов, плохой реализацией MIDI в ОС, и т.д.

Попробовал сделать железный лупер источником MIDI-clock'а, а Live настроить на использовать внешнего сигнала. Вся аудиокоммутация осталась прежней. Как и результат.
Начитавшись и насмотревшись всякого на тему синхронизации по MIDI я в какой-то момент вообще перестал что-либо понимать. Захотелось железную драммашину) Но не факт, что и такая схема заработает без бубна.

Покопавшись еще в интернетах я узнал существовании таких девайсов как E-RM MIDIclock+ и E-RM Multiclock, а также им подобных (Roland SBX-1).
Если я понял правильно E-RM MIDIclock+ - это просто источник ровного MIDI-clock'а.
На него я в принципе готов раскошелиться, но решит ли этот девайс мои проблемы?
Если да, неужели это означает, что современные железки не умеют отдавать ровный MIDI-clock? Как так?
Если нет, тогда получается, что нельзя просто так взять и использовать внешний клок в DAW? Как так?

E-RM Multiclock более занятный прибор. Насколько я понял принцип его работы такой: DAW используя плагин генерит аудиосигнал опр.частоты (видимо зависящий от установленного темпа) который отправляется на один из выходов аудиоинтерфейса и попадает на спец. аудиовход Multiclock'а который преобразует его в MIDI-clock, который рассылает в 4 дырки давая возможность подкрутить задержку. Это один кейс. Также ничто не мешает использовать Multiclock в качестве источника ровного клока, плюс возможность подстройки.
Однако мне непонятно самое главное, зачем настолько усложненная схема вообще существует? И подстройки эти, они по какой причине существуют? Буду очень признателен, если кто-нибудь обьяснит.
Неужели такая схема с синхронизацией по аудио единственный рабочий способ когда надо чтобы именно DAW была главной?

Ну и еще вопросы))
- вообще, сгенерить ровный MIDI-clock это какая-то техническая проблема?
- есть ли вообще неспециализированные приборы, вроде синтезаторов или драммашин, которые могут отдавать ровный MIDI-clock?
- почему давным-давно не придумали решение для синхронизации на основе аудиокабелей или, например, Ethernet'a, чтобы это было в каждом аудиоинткрфейсе за 50 долларов?
- как вообще существовала 40 лет музыкальная индустрия, если невозможно синхронизировать несколько железок, чтобы они просто ровно играли?
- Что мне надо для решения проблемы синхронизации, с учетом следующих пожеланий?
а) хочется иметь возможность независимо запускать/останавливать паттерны ударных в Live
б) хочется иметь возможность независимо играть/лупить партии виртуальных синтов в Live
в) хочется чтобы при этом ничего не разбегалось, такое вообще технически возможно?)
 

Сейчас просматривают