Synthesizer V Pro (Synth V)

Спасибо за консультации! Причина была в почте на mail.ru. Как перерегистрировался на gmail.com- всё сработало! Прислали на почту коды активации. Как я понял-теперь надо с оф.сайта качать саму программу, и в ней всё активировать? А что посоветуете ставить-бетку, или официальную версию? Как я понял-возможность преобразовывать собственные "напевы" в миди есть толко в последней бетке?
 
ставить-бетку, или официальную версию?
Бету, конечно.
с оф.сайта качать саму программу и в ней всё активировать?
Вся активация внутри программы.
Ссылки на скачивание:
store.dreamtonics.com: My account ► recent orders ► view
www.dlsite.com: (My page ►) Account ► Purchase History

P.S. Напоминалка.
Неофициальный юзер-мануал: https://manual.synthv.info/
Обучающие видео на английском: https://www.youtube.com/@mixphantom0101
 
Последнее редактирование:
  • Like
Реакции: totosha66
На русском есть, что показать?
Нет, и не предвидится. Я уж точно не планирую ничего показывать «на русском». А будет хорошая музыка, так и на акцент будет плевать.

Это же технология двойного назначения. Кому-то кавера вот такие делать — что, с одной стороны, забавно, а, с другой, неплохо демонстрирует возможности технологии. Игрушка, в общем. И тут вполне можно обсуждать совершенство/несовершенство дикции и прочих параметров. А кому-то такая технология — возможность реализовать мечту (музыкальную придумку) хотя бы в виде макета. При отсутствии наличия доступа к хору, оркестру, солистам-инструменталистам, а теперь, вот, и вокалистам. И в таких случаях обсуждать дикцию... ну, почти что неприлично. Как и прочее звукорежиссёрское.


Если же вернуть разговор собственно к предлагаемой технологии, то у меня плохая новость. (Не знаю, как для читающих этот текст, для меня — точно плохая.) В SynthV используется упрощённый способ записи фонем. И один и тот же символ (или пара символов) в разных языках означают разное озвучание или вовсе ничего не означают (и тогда нота вовсе не звучит). Упрощёнка несомненно удобна, если автор работает в пределах одного из предлагаемых языков (скорее всего, родного). Упрощёнка упрощает и ускоряет работу. А вот для тех, кто пишет текст на любом из неподдерживаемых языков, тут проблемы. Дело в том, что SynthV не даёт одновременного доступа ко всем фонемам, имеющемся в голосовой DB, а только к набору фонем, имеющихся в выбранном языке. Если поменять язык, часть фонем поменяется на другие, а часть вовсе не будет озвучена, так как нет соответствия вводимых символов — фонемам. Получается, что невозможно взять в одной композиции шипящие и мягкие согласные из китайского, гласные из английского и пару звучков из японского. Это реально плохо.

Не зная внутреннего устройства SynthV и, соответственно, не понимая, насколько это реально, я бы предложил добавить язык «Universal», который позволял бы вводить фонемы более сложным способом (по полным спецификациям International Phonetic Alphabet), что дало бы пользователю возможность обращаться ко всему набору фонем. А Ai-голос при установке в систему декларировал бы список доступных фонем, а пользователь видел бы, что, к примеру, у Сароса нет мягкой «л'», а у Солярии «щ», и как-то выходил из положения.
Программисту сделать ещё один транслятор вводимых символов на внутренний язык SynthV — работа на неделю максимум (с пивасиком и перекурами). Но могут быть и подводные камни: типа, певец, обучая машину, никогда не соединял китайский звук с английским, и программа не будет знать, как это делать. Надо будет задать такой вопрос на форуме SynthV. Правда, представители компании там до сих пор вроде как не были замечены, и шансы получить ответ с объяснением мизерны.
 
  • Like
Реакции: Maxim Kashtanov
В SynthV используется упрощённый способ записи фонем. И один и тот же символ (или пара символов) в разных языках означают разное озвучание или вовсе ничего не означают (и тогда нота вовсе не звучит). Упрощёнка несомненно удобна, если автор работает в пределах одного из предлагаемых языков (скорее всего, родного). Упрощёнка упрощает и ускоряет работу. А вот для тех, кто пишет текст на любом из неподдерживаемых языков, тут проблемы. Дело в том, что SynthV не даёт одновременного доступа ко всем фонемам, имеющемся в голосовой DB, а только к набору фонем, имеющихся в выбранном языке. Если поменять язык, часть фонем поменяется на другие, а часть вовсе не будет озвучена, так как нет соответствия вводимых символов — фонемам. Получается, что невозможно взять в одной композиции шипящие и мягкие согласные из китайского, гласные из английского и пару звучков из японского. Это реально плохо.
Чтобы это понять, мне понадобился один день. В связи с чем и написал, что японский движок самый простой, если наплевать на акцент, там только шипящие вручную прописать и всё. Но шел разговор выше что есть испанский движок и там звуки похожи на наши.
А так даже бесплатная версия вполне юзабельна, если нужен вокализ.

 

Вложения

Чтобы это понять, мне понадобился один день.
Поняли и не поделились с любопытствующими? Нещитово.

Но шел разговор выше что есть испанский движок и там звуки похожи на наши.
У голоса Saros объявлена поддержка испанского языка в бета-стадии. В текущей бета-версии SynthV испанского языка нет. Хз, как с этим быть.
 
Поняли и не поделились с любопытствующими? Нещитово.
В смысле не поделился? На предыдущей странице же. Выводы про весь продукт делать не стал, т.к. протестил только три бесплатных библы. Имперскую китайскую, японскую и английскую.
 
А кто мешает смешивать-то?
Просто в аудио виде уже ))) А ещё потом питч подвинуть и в адобе энхансер скормить )))
 
А кто мешает смешивать-то?
Странный разговор. SynthV не даёт одновременного доступа к фонемам из разных языков — факт. Тем, кто присматривается к технологии, лучше об этом знать заранее. А ставить заплатки сторонними инструментами... ну, такое.
 
Что есть в модели, то и есть, откуда она другие фонемы возьмет, даже если найти способ ей их скормить? Если бы одну и ту же модель голоса сразу нескольким языкам обучили, тогда да.
В платной версии вообще возможно сразу две и более аудиомодели заюзать? Ну, хотя учитывая, что она как плагин подключается, ответ ясен, так, или иначе получится.
В тестовой только одна модель в сесии и сессия только стандалоне.
ЗЫ пока писал, пришла мысля, проверил, получилось две модели сразу подключить. Так что для вокализов мастхэв. Можно даже гармонические движения писать.

 

Вложения

Последнее редактирование:
Что есть в модели, то и есть, откуда она другие фонемы возьмет, даже если найти способ ей их скормить? Если бы одну и ту же модель голоса сразу нескольким языкам обучили, тогда да.
Не, не так. Вот голос Feng Yi. Певица, обучая машину, пела на мандаринском (родном) и английском (с акцентом). Кантонский и японский языки были синтезированы при помощи Cross-lingual Singing Synthesis (межъязыковой вокальный синтез), это часть технологии. Фиксируем: пела на двух языках, доступны четыре. Будет воля производителя, запоёт и на испанском. Разумеется, с акцентом.

243266


И вопрос остаётся открытым: принципиально, в будущих версиях SynthV, возможно ли использовать в одном треке все имеющиеся фонемы всех напетых и синтезированных языков, которые уже есть в DB? Или нельзя?

======
С испанским языком у Сароса разобрался. Среди закачек есть ещё один файл — saros-installer-v101b2.svpk, который я не заметил. Теперь так:

243267


Сарос — имя певца-учителя не раскрывается, но известно, что он американец, профессиональный певец из Нью-Йорка. Никакие мандаринские и кантонские языки ему не ведомы, они тоже синтезированы.

===============
В платной версии вообще возможно сразу две и более аудиомодели заюзать? Ну, хотя учитывая, что она как плагин подключается, ответ ясен, так, или иначе получится.
Платная версия SynthV работает в трёх режимах: как стэнд-элон, как VST/AU-плагин и как ARA-плагин.
Все манипуляции производятся во внутреннем «секвенсоре» синтезатора, который с хостом только синхронизируется. Дорожек в одной инстанции можно создавать много, хоть на целый хор. И ничто не мешает сделать две дорожки, к примеру, с Саросом испанским и с Саросом мандаринским. Не лучший способ переходить от фонемы к фонеме, но так, очевидно, и придётся делать, пока на мой вопрос не появится ответ.
 
Последнее редактирование:
Две новости, хорошая и плохая.

Хорошая. На dlsite.com добавились семь голосов от Dreamtonics, включая (из чаще интересующих европейцев) Hayden, Sheena or Ritchie, а также анонсирован и пред-продаётся голос Frimomen (вроде бы от другого производителя, не от Dreamtonics). Все «подешевевшие» голоса перечислить не могу, ибо не следил за изменениями. Новость хорошая, поскольку на этом сайте покупать значительно дешевле, чем на Дримтониксе, и особенно дешевле, если не полениться разобраться с купонами.

Плохая. Не прошло и недели от хорошей новости, как японский портал dlsite.com с 3-го апреля 2024 года перестал принимать платежи от платёжных систем Visa и MasterCard, а PayPal и раньше был забанен. Пока доступными для европейцев-американцев остаются JCB и American Express.
Объяснение же такое. На этом сайте продаётся много контента для взрослых (игры, манга, этти и т.п.). Многих, кстати, соседство такого контента с вожделёнными AI-голосами отпугивало, но, в общем, напрасно: сайт старый, проверенный, а японское отношение к «этой» тематике отлично от европейского (точно менее ханжеское). Тем временем платёжные системы всё больше и больше пытаются диктовать продавцам и производителям, что они имеют право продавать, а что нет. И не так уж редко просто блокируют средства продавцов. Причём блокировка вовсе не обязательно происходит из-за «взрослого контента», придирки могут быть к чему угодно. Тот же сбежавший из России PayPal, оказывается, заблокировал средства десятков проектов на КикСтартере — без объяснения причин.
Многие из производителей/продавцов в последние годы добровольно уходили в «японскую юрисдикцию», чтобы уменьшить давление евро-американских платёжных систем, но, вот, шаловливые ручонки дотянулись и до японских магазинов. И dlsite, среди прочих, встал перед выбором: либо убирать значительное количество контента (а, значит, и терять свою «прикормленную» публику — ну не на AI же голосах он делает основную выручку!), либо отказаться от сотрудничества с особенно настырными платёжными системами. Пока принято такое решение, какое принято — с принесением извинений публике за доставленные неудобства и выражением надежды, что всё обязательно будет хорошо в одном из будущих времён.

NB: Возможность обсуждать политическую составляющую такого поведения пэйпалов, виз и мастеркардов мы оставим для других соц.сетей, не для РММ. Какой-нибудь Хазин быстренько всё бы нам объяснил. А я тут просто дал информацию, чтобы любой мог в соответствии со своими религиозными конспирологическими убеждениями сделать собственный прогноз, куда катится весь этот джаз.
 
Последнее редактирование:
  • Like
Реакции: Maxim Kashtanov и Skipper
Пол часа назад автоматически пришли в программе какие то обновления. Как я понял- теперь официальная версия PRO сравнялась по номеру версии с бэткой. Теперь всё стало 1.11.0 Все голоса тоже обновились. Каких либо существенных изменений пока не обнаружил...
 
  • Like
Реакции: Maxim Kashtanov и dr-music
Новый продукт от Dreamtonics, начинается бета-тестирование: https://dreamtonics.com/en/vocoflex/#beta-signup.
VST3/AU плагин, который будет подменять один голос на другой.

Подписка свободная, но надо заполнить очень небольшую анкету и ждать подтверждения.

Скоростной перевод вопросов и ответов.

Чем Vocoflex отличается от приложений для клонирования или преобразования голоса?
— Vocoflex не требует обучения модели на большом количестве собранных образцов; 10-секундный отрывок вполне подходит в качестве исходного материала. Vocoflex - это автономное приложение, принимающее сигнал в реальном времени с микрофона/интерфейса плагина.
Хотя Vocoflex изменяет тембр вашего голоса, он не меняет высоту тона, не ограничиваясь простым сдвигом высоты тона. Он также сохраняет ваши привычки произношения, темп и интонацию.

Каковы ограничения Vocoflex?
— Vocoflex не работает с входным аудио с искажениями или фоновой музыкой.

Могу ли я преобразовать разговорный голос вместо певческого?
— Vocoflex разработан с учетом особенностей певческих голосов, поскольку мы признаем сложности и потенциальные риски при преобразовании речи. Тем не менее, он будет работать и с разговорным голосом, просто не так качественно и убедительно, как с певческими голосами.

Нужно ли мне еще несколько голосов Synthesizer V, если Vocoflex уже может сделать так много?
— Vocoflex может расширить возможности Synthesizer V, обрабатывая выходной сигнал от Synthesizer V Studio Plugin.
Хотя Vocoflex изменяет тембр голоса, он сохраняет привычки произношения и нюансы певческого выражения. Таким образом, даже при одинаковых настройках Vocoflex результат не будет одинаковым на каждой базе данных голосов Synthesizer V. Вы сможете работать с еще большим диапазоном голосов, сочетая Vocoflex с различными голосовыми базами Synthesizer V.

Для чего я не могу использовать Vocoflex?
— Пользователи не должны использовать Vocoflex с аудиосэмплами, полученными без согласия оригинального исполнителя.
Вы можете преобразовывать вокал, сгенерированный Synthesizer V Studio, с помощью голосовых баз данных, лицензированных Dreamtonics. Однако вы не можете пытаться имитировать тембр голосовых баз данных Synthesizer V.
Если иное не указано нашими партнерами, в случае использования Vocoflex для преобразования голосов, сгенерированных Synthesizer V Studio, вы можете применять Vocoflex только к голосовым базам данных, лицензированным непосредственно Dreamtonics.

Нужен ли мне GPU/соединение с Интернетом для работы Vocoflex?
— Vocoflex работает полностью автономно на центральном процессоре. Вам потребуется подключение к Интернету для проверки лицензии.

Что значит "вычитать" голос?
— Когда точки, обозначающие голос, оказываются в тени, Vocoflex ослабляет характеристики голоса и приводит выходной тембр к противоположному. Например, если свет падает на голос с придыханием, а в тени находится голос с чистым звучанием, то голос с придыханием станет еще более придыхательным!

Где можно купить Vocoflex?
— На данный момент мы запускаем Vocoflex в качестве эксперимента и не определились с планом публичного релиза.
 
Последнее редактирование:
Плотненько новости пошли. ACE studio — вроде как прямой конкурент Дримтониксам. Темы про ACE нет на форуме, и едва ли будет — они ж доступны только по подписке (22 бакса ежеманcно). Кто английский не, то тогда так: шестерёнка ► субтитры ► перевести ► русский. Перевод похож на правду.

 
Ну ничего нового они пока не предлагают- всё то же самое можно прекрасно делать и сейчас в связке Synth V плюс бесплатный Replay https://www.tryreplay.io А модель своего собственного голоса сделать один раз не так уж и сложно. Проблема как раз в другом- если вокалист не запишет исходный материал модели во всём диапазоне, и со слушабельным тембром -то и модель выйдет такая же уродская. Да, будет правильное вибрато от Synt V, не будет фальши по нотам, но диапазон то останется тем же обрезанным.. У меня музыка-чисто домашнее хобби, не более, так я натягиваю на линию "спетую" Саросом (голосовая база Synth V) модельки, извиняюсь, Кобейна и Лейни Стенли, и получаю в итоге старые собственные песенки времён молодости спетые своими кумирами тех лет.. Слушать всё равно это никто не будет-а мне приятно!)) А вот когда собственный вокал пропускаю через те же модели-получается лажа, потому как петь не умею..
А чистые голоса ACE studio для таких направлений музыки неприменимы- там не то что гроула-там даже минимального расщепа не предвидится. Кстати- 9 ZERO, тоже оказался непригоден по тембру- он гнусавый и тонкий совсем. Даже через модель Replay.
От Сароса, как ни странно, удаётся добиться манеры исполнения типа Pearl Jam, Alice in Chains и иже с ними, ну а тембр натягивается уже через модель...На профессиональное использование не претендую-чисто дома поиграться..
 
  • Like
Реакции: Maxim Kashtanov и dr-music
Shift от supertone.ai — программа сдвига регистра голоса реального времени.



P.S. Отдельно: мне нравится домен .ai. Хорошо бы принять закон, что все ненастоящие голоса могут быть только в этом домене, и ни в каком другом. Как голосовое порно.
 
Поставил на комп сию приблуду.. Насколько я понял- возможность преобразовать уже записанный файл отсутствует. Только вживую с задержкой (как пишут 43мс) петь и записывать оное. Интересно, что, если ползунок Blend поставить в ноль, то питчит в пределах октавы собственный голос эта программулина вживую даже лучше, чем у меня ReaPitch в Рипере при рендере. Артефактов поменьше.
К сожалению, для своих нужд применения никакого не нашёл, но вектор развития технологии уже понятен- уже можно будет обходиться без GPU и подменять голоса уже в формате плагина, позволяющего получать результат в реальном времени.. Рендерить дорожки через Replay, предугадывая результат напрягает..
Видимо скоро дойдёт до схемы, когда вешаешь после Synth-V плагин с моделькой, и получаешь сразу готовый вокал кого хочешь! Заманчиво! Vocoflex, скорее всего, будут двигать в том же направлении.. Никто, кстати, пока не обзавёлся его бэткой?
 
Сделал показательное сравнение на тему связки Synt-V и технологии нейросетей RVC-2.
Накидал по быстрому коротенький припевчик из довольно известной "Big empty" от Stone temple pilots (только, пожалуйста, не надо ёрничать по поводу соответствия оригиналу- я ни разу не музыкант, всю сознательную жизнь на стройке проработал, играюсь исключительно дома для себя).
Вокал забил в Synt-V двумя вариантами голосов- Мужским (Сарос) и Женским сопрано (Солярия).
Потом на всё это навесил модельку другого голоса через Replay (более соответствующую жанру). Получилось две версии припева- один "спетый" мужским голосом, другой женским, но оба потом обработанные одинаковой голосовой моделью. Результаты сейчас прилеплю сюда. Называется-найдите 10 отличий.. Потом прилеплю оригиналы голосов.



 

Вложения

  • Like
Реакции: Morpheus и dr-music
Вот оригиналы голосов. Мне кажется разработчики Vocoflex и иже с ними сами роют себе могилу- какой смысл торговать голосами, если можно вытащить практически любой тембр из любого источника.. При том, что лично для моих нужд родные голоса Synt-V мало применимы (я пытаюсь какие то рокешники сочинять). Я всё равно буду пропускать через чужую голосовую модель.



 

Вложения

  • Like
Реакции: Morpheus
Vocoflex (...) Никто, кстати, пока не обзавёлся его бэткой?
Я — не. Вроде как кое-кто уже получил на забугорной стороне, но — считанные единицы, остальные ждут. Есть мнение, что япы, похоже, активность в соцсетях и медиа потенциальных бета-тестеров отслеживают. Без активного ютуб-канала или, там, ежедневных постов в ФБ шансов поучаствовать мало.

найдите 10 отличий
Есть ощущение, что Солярия просто скопирована с Сароса (и странспонрована), а не забита с нуля. Она чуть-чуть более истерична, криклива получилась. Всё же один и тот же паттерн не всегда можно без редакции в другую модель переносить, хотя бы пару ползунков хорошо бы подвигать. (Это не претензия, упаси бог, для наброска и так годится).
После подмены голоса эту разницу я слышу только при посекундном сравнении. Т.е. алгоритм Replay эту разницу таки отловил и отобразил.
Впрочем, правда и в том, что я равнодушен к этой музыке: если уши и слышат разницу, то душе пофиг. Рокоманов надо спрашивать :)
 
Да, Вы ,безусловно, правы - Солярию просто скопировал, но скопировал в режиме SING. В том то и была задумка - сейчас Synt-V кавера на Ютубе, на мой взгляд (смотрю где есть прилагаемые файлы проектов), делаются, в основном, путём вырезания дорожки вокала из оригинала, и закидывания её в Synt-V в pitch mode MANUAL. Там треугольничек сразу появляется. И программа тупо переносит кривые, спетые в оригинальной песне, без задействования AI модели. Если вокал хороший-результат получается очень похожий. Но если много артефактов, или спето криво- полный швах.
А если в режиме Sing задействовать AI голосового пакета, то, насколько я разобрался, питч между слогами просчитывает сама машина, и у каждого голоса этот расчёт разный. Поэтому, когда менял голос на уже забитой дорожке- кривые уже сильно по другому выглядели- отсюда и крикливость в манере пения. А если ставил Астериана, то почему то появлялось сразу чрезмерное вибрато.. Это ж их манера такая..

Хотел поинтересоваться, если можно, а каков алгоритм забивки новых придуманных линий вокала у Вас? Я сначала пробовал закидывать миди в программу (это которое поёт слогом La), а потом вбивать текст. Но получается либо совсем роботизированный голос, либо надо опять рисовать всё самому в режиме прямого редактирования питча. Ну очень долго и муторно.. Прям совсем..
Поэтому, на данный момент, прихожу к выводу, что для меня оптимальным является как то изловчиться и напеть всё самому с правильным интонированием (по ощущениям очень похоже на игру на гитаре с миди датчиком) ,но при извлечении из миди, галочку на Transfer pitch onto converted notes не ставить ни при каких раскладах (пою совсем мимо). Где то на 65% ползунка чувствительности получается более менее приемлемый результат. Ну а потом, в том же режиме SING, подправляю лажу в нотах и перебиваю фонемы, где надо (склоняюсь уже больше к фонемам, нежели к просто тексту).. У меня так , а у Вас?))
 
Хотел поинтересоваться, если можно, а каков алгоритм забивки новых придуманных линий вокала у Вас?
Для начала мне придётся много оговорок сделать. а) Я не ориентируюсь ни на какой стиль из тех, для которых эти голоса предназначены. Сегодня у меня задача — рок-баллада, завтра — казачий (типа) хор, после — песня для детского хора, а между этим — какое-нибудь переложение моцартовской арии (условно — кросс-овер). б) Поскольку я делаю голосами не то, для чего они предназначены, я и не планирую получить результат, которым можно будет хвастаться в ютубах-вконтактах; я просто хочу получить удобный инструмент для макетирования, а макеты если кому и будут показаны, то только профессионалам на предмет настоящего, живого исполнения. в) Английский язык мне не интересен абсолютно. Только дважды в жизни я писал на английский текст, и оба раза это был Шекспир (музыка к театральной постановке). А с русским языком у всех этих AI-голосов, прямо скажем, всё очень и очень печально. г) По семейным обстоятельствам сейчас не до голосов, не каждую неделю нахожу возможность побаловаться. Поэтому результата, который можно было бы показать даже как чисто технический пример, пока нет. Нет ощущения, что я выжал все возможности, доступные мне по моим способностям и усердию. Больше, больше усердия требуется! д) Из предыдущего пункта следует, что я ещё совсем не свободен в общении с SynthV, вплоть до того, что в перерывах между подходами забываю, как и что в ней делается...

К делу. У меня тоже с импортом MIDI, «ла-ла-ла» и последующим рисованием-редактированием не особенно получается. Напеваю сам, потом пытаюсь получить нужный результат редакцией. Спеть более-менее чисто могу что угодно: увы, ни сколь-нибудь приличного тембра, ни вокальной техники у меня нет и в помине, но зато в бэкграунде сольфеджио в режиме спецназа (теоретическое отделение в Мерзляковке). В хоровом многоголосии пою фразы в удобных тональности и регистре (низкий баритон — бас), распознаю и тут же транспонирую.
Важно петь не стесняясь, если нужно — громко. С таких тейков проще получить результат, если требуется какая-никакая экспрессия. А с экспрессией свои сложности. В русской хоровой музыке, особенно в духовной, истошная голливудская вибрация неприемлема. Поэтому все голоса приходится удавливать по вибрации ползунками почти в ноль. Всё равно «духовный кросс-овер» получается, но — всё таки. Дубли напеваю отдельно, чтобы не было идеального ритмического и интонационного совпадения. Лучше после подправить, чем размазывать мышкой.
Пока не решённая проблема, экспериментирую: какие именно комбинации голосов будут лучшими для альтов, для сопрано, для теноров и т.д.. Если же в партитуре переменное число голосов (всегда так! от трёх до девяти в текущей работе), то как-то надо организовывать и перераспределение сил: например, мужская часть хора начала двухголосно, а потом дошла до пяти голосов. Общую массу-то лучше сохранять.
Когда этот этап освою (если и когда), то мне было бы интересно попробовать подмешать к такому хору какие-нибудь классические сэмплерные хоровые библиотеки, пропущенные через что-то вроде вокодера. Надежды тут слабые, но попробовать надо. Чем лукавый не шутит.

Ещё проблемы.
Во-первых, нотные редакторы не работают с SynthV. Понятно, что первым будет Дорико, но то когда ещё будет. Точно не завтра. А это значит, что опять, как в прошлом веке, композеру придётся делать две работы — нотную в нотном редакторе и макетную в DAW. Не вдохновляет.
Во-вторых, в любой музыке, не привязанной к регулярному биту, очень желательно точно угадывать будущие темпы. При работе в режиме ARA-плагина темпы подхватываются, но при значительном их изменении может потребоваться большое количество редактуры. Длинные композиции прописываю целиком несколько раз (напеваю под пианино, лучше под живое пианино), отслушиваю и потом ориентируюсь на отобранный дубль по темпам.
Петь своим невокальным голосом и одновременно представлять, как бы эту ноту смогли бы длить настоящие хоровики или певцы — отдельный навык раскрепощения. Плотно закрытая дверь и, лучше, отлучившиеся домочадцы — в помощь.

Как-то так.
 
  • Like
Реакции: totosha66

Сейчас просматривают