ложный и многообещающий способ, к которому я изредка возвращаюсь. Пытаюсь "лепить" бочку не в time domain, а в спектральном представлении. Т.е. рисовать её сонограмму, синтезируя звук на ходу. При этом можно контролировать "размытость" и по частоте, и по времени сразу на стадии синтеза. Тут надо бы использовать fft, но я в csound с fft пока не очень умею работать (точнее, нет подходящих опкодов. Всё, что имеется, связано с ресинтезом и обработкой, а не с синтезом), поэтому пока делаю всё аддитивно из тысяч синусоид (по сути - то же преобразование Фурье, но синтез идёт сравнительно долго, иногда до нескольких минут). Результаты очень красивы, но те же проблемы с неконтролируемой амплитудой низа.
Цитата выделенного