48 Vs 96 (1 онлайн

Статус
В этой теме нельзя размещать новые ответы.

Adon Leon

3 х папа, 4 х дед.
14 Ноя 2004
1.498
101
63
67
Israel, Mediterranean Sea
soundcloud.com
Aleksandr_Oleynik,
По итогам обсуждения этого вопроса двухлетней давности, пришли к выводу, что если конечный продукт, - CD Audio, то наиболее приемлемый вариант для работы в хосте это 44.100 kHz - 32Float Если же говорить о снятии конечного продукта внешними девайсами, то частоту дискретизации можно и нужно увеличить. Причём желательно только кратно: 44.100 Х 2 = 88.200 Лично у меня по данной фразе ещё тогда возник вопрос: " Как будет вести себя при этом хост? "
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
supersonic,
перечитал ещё раз, внимательно перечитал.
Понял, что ты предпочёл бы в моём случае работать в 44/24, но при этом, если бы оборудование позволило и дискомфорта не наблюдалось бы, ты бы стал работать в 88/24?
Ну извени за такую настойчивость :), но как и во всём, чёткости нет, я понимаю, но я бы всёже хотел её для себя приблизить.
Тем более что с цифровыми источниками и других проблем хватает, я вот тут ещё в кое чём пытаюсь разобраться -
Приборы согласования нескольких цифровых источников

У меня есть ещё одна причина, по которой мне наверное лучше использовать 88,2 - я через тот-же сэтап и репетирую, а при более высоких частотах получается меньше задержка, что при живой игре существенно.

Adon Leon, так в том то и дело, что такой однозначности я не прочёл, многие, тот-же Андрей Лукин, настаивали на предельно возможных частотах.
Да и потом, многие в обсуждении имели в виду аналоговый источник, а с ним так уж точно их желание писать по максимум имеет смысл. В моём-же случае - Только Цифровые источники как правило с 44,1.

То, что
<div class='quotetop'>Цитата</div>
Поэтому учитывая что в проекте почти со стопроцентной вероятностью будут присутствовать пункты 1-3 и учитывая пункт 4 можно и без тестов сделать вывод, что результат обработки одного и того же проекта на разных частотах дискретизации будет различен.[/b]
я и сам уже ни один раз убедился на практике, но вот ЛУЧШЕ ли он будет, если все "подпорченные" параметры плагинов вернуть на место?
 

supersonic

Well-Known Member
17 Июл 2004
1.981
813
113
Москва
www.jamendo.com
<div class='quotetop'>Цитата(Aleksandr_Oleynik @ Sep 1 2007, 05:40 PM) [snapback]488959[/snapback]</div>
supersonic,
перечитал ещё раз, внимательно перечитал.
Понял, что ты предпочёл бы в моём случае работать в 44/24, но при этом, если бы оборудование позволило и дискомфорта не наблюдалось бы, ты бы стал работать в 88/24?
[/b]
Лично я - нет. Если конечный продукт 16/44. Даже если бы комп вдвое больше тянул и вдвое больше ДСП было бы. Пример я выкладывал, разницы там не ощущаю. Тесты с записью всех исходников в 96 и сведением проекта в 96 и 44 тоже делал. Суть в том, что когда слушаешь в 96, оно играет лучше, а когда приводишь их к общему знаменателю, разница мизерна. Почему, я объяснял.

Что РЕАЛЬНО влияет на результат, на ощущение качества продукта - это настройки эквалайзеров и компрессоров, реверов, фаз, т.п. Тонкая подгонка всего в миксе друг к другу. Вот этим надо морочится. А конкретный окрас того или иного плагина, прибора, или эвфемерные различия на разных частотах дискретизации - это все от лукавого. В финальном результате это либо пренебрежимо, либо и вовсе не отличимо.

Когда я тест на сумму делал, меня что поразило, даже пресчет исходников в MP3 (уж куда казалось бы!) на конечный результат по сути не влияет. А ведь были люди, который этот микс признали лучшим! ;)

Я выбираю быстоту рабочего процесса (нет гемора с конверсией), простоту и большую надежность (меньше места на диске, меньше нагрузка на систему - стабильней работа).
 

Alexey Lukin

Well-Known Member
11 Июн 2003
1.947
1.328
113
38
audio.rightmark.org
Если речь идет о цифровых сигналах, окончательный формат - 44 кГц, и большинство источников тоже в 44 кГц, то не вижу смысла сводить и обрабатывать в более высокой частоте. Это может быть оправданно, только если какой-то из эффектов явно работает хуже (например, имеет проблемы с алиасингом при добавлении гармоник) на низкой частоте.

Если речь идет о записи аналоговых источников, то нужность или ненужность записи исходников с более высокой частотой определяется качеством имеющегося АЦП и сравнением его работы на разных частотах. Как правило, можно добиться более высокого качества записи, если писать с более высокой частотой, "родной" для АЦП, а потом частоту понизить хорошим программным конвертером, который сделает это лучше встроенного в АЦП. Впрочем, во многих случаях это преимущество в качестве минимально и не стоит мороки. В профессиональном мире на такие вещи гораздо меньше обращают внимание, чем в домашних студиях!

Разрядность в процессе обработки и микширования, конечно, лучше поддерживать 24-битную или выше.
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
Понял господа, огромное спасибо,
пошёл разбираться с проблеммами цифровых сигналов в принципе :) -
Приборы согласования нескольких цифровых источников
Может и там также коротко и ясно поможете?
Ещё раз спасибо.

<div class='quotetop'>Цитата(supersonic @ Sep 1 2007, 05:14 PM) [snapback]488975[/snapback]</div>
Когда я тест на сумму делал, меня что поразило, даже пресчет исходников в MP3 (уж куда казалось бы!) на конечный результат по сути не влияет. А ведь были люди, который этот микс признали лучшим! ;)[/b]
Не я :).
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
У меня вот ещё пару вопросов в продолжение, а может в развитие темы цифровых источников и частот дискретизации.
Перечитал почти все ветки где упоминалось хоть что-то о частоте дискретизации сигнала и во многих ветках упомналась почти аксиома -
44,1 kHz для Audio CD и 48 kHz для DVD (хотя в общем не только для DVD, а вообще для сопровождения видеоряда).
А кто в таком случае может сказать, почему бОльшая часть Синтезаторов имеет внутреннюю частоту 48kHz?
И ещё вот такое вот наблюдение -
Все взрослые Цифровые синтезаторы имеют цифровые выходы, и на сколько я понимаю, на цифровом выходе сигнал Чище и Качественее чем после самого хорошего DA конвертора, и тем более после ещё одного AD.
Вполне разумным было -бы (на мой взгляд) писать подобные инструменты не прибегая к DA/AD преобразованиям, да в общем наверное многие так и пишут в цифровых студиях. Также всё больше вижу и при живых выступлениях в качестве основных пультов - Цифровые.
Но почему-то, при наличии на сцене как правило большинства инструментов с цифровыми выходами, их всёравно в ЦИФРОВОЙ-же пульт забирают по аналогу и получается очень интересный у звука путь -
DA/AD и ещё один DA конвертер выходной на порталы.
Где здесь логика?
Я уже не говорю про то, что цифра наводкам не подвержена.

И ещё одно наблюдение -
даже если кто-то воткнёт на сцене или на репетиции свой синтюк в пульт по цифре, то получит тут-же проблемму с управлением на своём синтюке громкостью, так как его привычный регулятор управляет только аналоговым выходом.
Опять-же почему это так?
 

supersonic

Well-Known Member
17 Июл 2004
1.981
813
113
Москва
www.jamendo.com
Самое зло цифрового мира - синхронизация.

Тут зачастую два девайса не удается настроить чтобы играли вместе, а ты говоришь о целом оркестре из цифровых приборов :) И у каждого свой клок. Теоритически, конечно все это можно синхронизировать, а вот на практике... Не говоря о том что муторно, а главное крааайне ненадежно.

Поэтому самый простой и логичный компромисс иметь цифру только внутри конкретного прибора, а коммутировать их по аналогу.

К тому же страшилки об ухудшении звука при переоцифровке это тоже из области околозвуковой мифологии. Возьми любую фанеру и переоцифруй через лупбак. На современных конвертерах кроме едва уловимой потери в стерео ничего страшного нет. А для моно сигнала, скорее всего и вообще невозможно будет отличить копию вслепую.
 
R

Rustami

Guest
supersonic, Ну ты знаешь, я проверял сигнал по сле лупбека. Мне не понравилось, что вышло, поэтому стараюсь такого рода соединений избегать.
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
<div class='quotetop'>Цитата(supersonic @ Sep 3 2007, 01:11 AM) [snapback]489441[/snapback]</div>
Самое зло цифрового мира - синхронизация.[/b]
Да, я уже это понял и на собственной шкуре ощутил.
<div class='quotetop'>Цитата</div>
Тут зачастую два девайса не удается настроить чтобы играли вместе, а ты говоришь о целом оркестре из цифровых приборов :) И у каждого свой клок. Теоритически, конечно все это можно синхронизировать, а вот на практике... Не говоря о том что муторно, а главное крааайне ненадежно.[/b]
Всё это так только по той причине, что такие вот устройства согласования пока экзотика, а интегрируют их в звуковые дивайсы, как оказалось, очень не многие. Но я всёже достаточно быстро нашёл решение. На сколько оно надёжно :( , это можно сказать поиграв и пописав таким образом хотябы с месяц.
<div class='quotetop'>Цитата</div>
Поэтому самый простой и логичный компромисс иметь цифру только внутри конкретного прибора, а коммутировать их по аналогу.[/b]
С компромисом всё ясно, правда это тоже достаточно не простой способ, начинается борьба с наводками, директбоксы всякие, поиск качественных с маленькой латенсией AD/DA конверторов и т.п.
Проблеммой качественного аналога занимаются уже очень давно, и думаю, если бы вопросами синхронизации цифровых сигналов позанимались хоть чуть плотнее, то вопрос бы забыли как таковой.
<div class='quotetop'>Цитата</div>
К тому же страшилки об ухудшении звука при переоцифровке это тоже из области околозвуковой мифологии.[/b]
Звук это сплошная мифология :), но есть вполне объективные параметры, которые всётаки и померять и услышать можно.
<div class='quotetop'>Цитата</div>
Возьми любую фанеру и переоцифруй через лупбак. На современных конвертерах кроме едва уловимой потери в стерео ничего страшного нет. А для моно сигнала, скорее всего и вообще невозможно будет отличить копию вслепую. [/b]
На "фанере" :) наверняка так и будет. Я понимаю о чём ты говоришь. В звуковом тракте любого концерта находиться такое кол-во УХУДШАЙЗЕРОВ, что DA/AD конвертора в них просто теряются как ничтожная составляющая ухудшения. Да и при записи и сведении я с тобой естественно полностью согласен, что есть технологические цепочки от которых итоговое качество зависит на порядок больше, чем любая переоцифровка и твой пример с mp3 исходниками я хорошо помню.
НО :), всётаки в мире аналога народ тракты вылизывает уже сколько десятилетий, а прийдя к возможности упростить последний этап и работать в итоге с материалом в цифре тоже стараются поднимать качество цифры как таковой. Значит есть в этом смысл, во всех этих 192 kHz, SACD/DSD/DXD и не каждая "фанера" звучит при этих потугах одинаково.

Я в общем задался вопросом чисто цифрового накопления и сведения не только из-за качества, а и из-за элементарной Логики.
По моему этот "компромис" можно оправдать только переходным периодом.
Я совсем не могу понять, почему например Чисто цифровые приборы обработки с Чисто цифровыми пультами соединяют через аналог? И почему на чисто цифровых гитарных синтюках, эфектпедалях нет цифровых лупов, инсертов (хотя уже начинают появлятся). И очень эминитые звукорежисёры и музыканты пишут о том, что, например такие Чисто Цифровые приборы как TC System 6000 или Lexicon 960 звучат лучше не по цифре, а через DA/AD. :( :blink:
 
R

Rustami

Guest
<div class='quotetop'>Цитата</div>
И очень эминитые звукорежисёры и музыканты пишут о том, что, например такие Чисто Цифровые приборы как TC System 6000 или Lexicon 960 звучат лучше не по цифре, а через DA/AD[/b]
Смешно.
 

supersonic

Well-Known Member
17 Июл 2004
1.981
813
113
Москва
www.jamendo.com
<div class='quotetop'>Цитата(Aleksandr_Oleynik @ Sep 3 2007, 10:45 AM) [snapback]489507[/snapback]</div>
По моему этот "компромис" можно оправдать только переходным периодом.
[/b]
Да не просто все. Создать универсальную, а главное БЕЗГЛЮЧНУЮ систему из внешних цифровых модулей существующими технологиями нереально. Стандарта нет. Помимо глюков с синхрой стоит воспрос а как победить задерку, если она возникает в каком-то приборе? Кто будет считать и, главное, от какого прибора в такой паутине? Т.е. нужен как минимум новый цифровой протокол, все эти ньюансы учитывающий и поддержка его ВСЕМИ приборами, копмьютерами, пультом и КАЖДОЙ из подключаемых железок. Это задача лет на десять.

К тому же стоит вопрос коммерческий, а будут ли пользователи платить деньги и строить подобные системы? Конкуренция со стороны виртуалки и in the box велика. А там все эти проблемы уже давно решены, не говоря о цене, простоте и удобстве. Так что ИМХО самый реальный вектор развития на будущее это полная интергация всех будущих внешних цифровых железок в VST.
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
Понятно, что не просто. Просто и с аналогом небыло.
Что значит нет стандарта?
На сколько мне известно, в ПроАудио уже давно используется и успешно три типпа цифровых интерфейсов AES/SBU, SPDIF и ADAT. Конвертора одного в другое существуют и не являются проблемой.
По поводу задержки вопрос снимается на том-же буферном устройстве на котором снимается вопрос синхронизации.
Ведь для схемы DA/AD все вопросы согласования задержек решаются уже внутри прибора который принимает аналог, так и в случаи с цифрой, водорозделом является прибор согласования цифровых сигналов, в моём вот случае это ADI-192DD. Так что проблемма задержки решается там-же, где и синхронизации. Да и задержка в цифровых трактах на порядок меньше чем во всех этих DA/AD.....

Новый цифровой протокол уже есть, правда не только для перечисленных тобой проблем он создавался. Это MADI, и делался этот протокол явно под какую-то дальнюю стратегию развития Цифры как таковой.
И поддержку этого протокола всеми существующими железками решили не за 10 лет, а УЖЕ, при помощи всё того-же компромиса, только в рамках Цифры - Были сделаны Цифровые конверторы из всех известных на сегодня цифровых форматов в MADI и обратно, да и в аналог тоже.
RME, кстати, очень динамично по этому пути движется, а поддержку прямо этого протокола, без конверторов, уже делают большинство Брэндов.

Ответ на коммерческий вопрос нужно получать у господина Иванова, которого похоже забанили :(, но по Киеву я знаю, что процесс пошёл. Как первый этап Очень удобного применения этого нового протокола передачи цифры - выбрано самое слабое место - передача звука на большие расстояния без потерь и наводок - MADI это позволяет делать без проблем и доп. устройств на расстояния до 2 км.

Виртуалка это не конкурент цифровым источникам, скорее удобное дополнение и возможно развитие.
Я совершенно не откажусь свою гитарную педаль заменить на VST, если эта замена позволит мне играть в РиалТайме (пока все жирные VST дают задержку существенно большую чем внешние педальки-эффекты и железные цифровые синтезаторы).
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
По поводу дополнения цифровых инструментов виртуальными и иногда и подмена ими -
у меня вот ударная установка Roland TD20 и в один прекрасный момент я благодаря этому форуму послушал Суперриор и ................., в общем теперь по MIDI в комп, потом в сиквенсор и играем библиотекой Супериор - очень нравится, лучше на много, чем то, что умел модуль от самой TD20.


Тут вот ещё подумалось - а почему в порталах не делают цифровых интерфейсов? По моему было-бы как минимум меньше наводок и шума.
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
Не знаю, наверное нужно будет потом всёже открыть ту мою тему, которую закрыли, и перенести всё в неё, что касается цифры.
<div class='quotetop'>Цитата(supersonic @ Sep 3 2007, 01:48 PM) [snapback]489659[/snapback]</div>
Помимо глюков с синхрой стоит воспрос а как победить задерку, если она возникает в каком-то приборе? Кто будет считать и, главное, от какого прибора в такой паутине?[/b]
Вот чуть дальше почитал по поводу MADI и устройств работающих с ним.
По поводу Automatic Delay Compensation, один из примеров решения этой проблеммы даже при разсредоточенной системе -

Auto Delay Compensation
A typical application example is the use of a HDSP MADI PCI-card in a computer with the ADI-642 as external AES interface. (schematic view) As MADI transmits 64 channels, up to eight ADI-642 can be used to provide all 64 channels via 32 AES I/Os. The integrated Matrix Router makes such a setup easy to be configured. The MADI signal is passed through from device to device. When passing through the MADI signal, a delay of a few samples per ADI-642 occurs, causing the AES inputs and outputs to show an offset. This problem is fixed by the Automatic Delay Compensation. Each ADI-642 automatically detects which unit it is within the chain, and corrects the AES input and output data so that all AES I/Os operate sample-aligned. The additional Auto Configuration mode sets up all ADI-642 to use consecutive AES I/Os. A manual configuration via each unit's Matrix is not required.

 

sansara

Well-Known Member
4 Авг 2006
1.523
345
83
45
Moscow
realrocks.ru
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
Да, 7 страниц и букв очень много...
Но осилил :). Хоть и с трудом.
Что я могу сказать на эту тему:
1) 32 float это - 24 бита до точки и ещё дополнительные 8 бит после.
Это даёт те же 144 дб (24 бита до точки по 6 дб на бит) диапазона до предельного уровня громкости в 0 дб и ещё дополнительных 48 дб (8 бит после точки) запаса. Это помогает сохранять форму сигнала когда обработка эффектом или суммирование каналов увеличивает уровень сигнала, превышая значение 0 дб, а затем восстанавливать её путём понижения уровня конечного сигнала или его компрессии. Таким образом полный диапазон (включая запас) сигнала с битностью 32 float будет 192 дб. Откуда брались цифры в 1000 и 760 (или семсот с чем-то там, уже не помню) дб, я так и не понял.
2) Я лично чтобы не париться все проекты делаю в 48 килогерцах, как минимум по двуи причинам:
Во-первых потому что мой Korg Trinity другой частоты дискретизации не поддерживает, но подключен по цифре, и я всё-таки использую этот инструмент, приходится равняться на него. К тому же я также использую подключенный по цифре Korg Oasys PCI, который, хоть и поддерживает 44.1 кГц, но, скорее всего, как и все Корги лучше "заточен" под 48 кГц. И всё-таки 48 это побольше и получше 44.1, но не так проблематично как 88.2 или 96.
А во-вторых, я много пишу музыки и для видео, где 48 кГц является стандартом.
Переходить на другие частоты дискретизации не собираюсь уже потому что многие мои любимые устройства её не поддерживают (Korg Trinity, Korg Oasys PCI, Alesis QSR, Lexicon Nuverb), и никто и никогда уже не сделает ТОЧНО ТАКИЕ ЖЕ с их поддержкой. Разницы между работы в 44.1 и ресемплингом в 44.1 с 48 я особо не замечаю, и результат меня полностью устраивает.
Больше мне добавить просто нечего.


Кстати, а что за Voxengo для ресемплинга, и где его взять?
 

Alexey Lukin

Well-Known Member
11 Июн 2003
1.947
1.328
113
38
audio.rightmark.org
<div class='quotetop'>Цитата(sansara @ Sep 12 2007, 01:21 AM) [snapback]493175[/snapback]</div>
32 float это - 24 бита до точки и ещё дополнительные 8 бит после.[/b]
Это не совсем верное представление. Если по-вашему, то уровень float нельзя понизить на 300 дБ, а потом поднять обратно практически без потерь. А это возможно.
На самом деле 24 бита - это мантисса (т.е. то, что идет "после точки"), а 8 бит - это экспонента (т.е. "положение точки").
 

supersonic

Well-Known Member
17 Июл 2004
1.981
813
113
Москва
www.jamendo.com
<div class='quotetop'>Цитата(Aleksandr_Oleynik @ Sep 3 2007, 09:00 PM) [snapback]489812[/snapback]</div>
Auto Delay Compensation
A typical application example is the use of a HDSP MADI PCI-card in a computer with the ADI-642 as external AES interface. (schematic view) As MADI transmits 64 channels, up to eight ADI-642 can be used to provide all 64 channels via 32 AES I/Os. The integrated Matrix Router makes such a setup easy to be configured. The MADI signal is passed through from device to device. When passing through the MADI signal, a delay of a few samples per ADI-642 occurs, causing the AES inputs and outputs to show an offset. This problem is fixed by the Automatic Delay Compensation. Each ADI-642 automatically detects which unit it is within the chain, and corrects the AES input and output data so that all AES I/Os operate sample-aligned. The additional Auto Configuration mode sets up all ADI-642 to use consecutive AES I/Os. A manual configuration via each unit's Matrix is not required.

[/b]
Из текста не понял, о какого рода компенсации задержки идет речь? Если это компенсации задержки, возникающей в результате работы самого протокола при подключении нескольких устройств, это одно. Я же имел в виду, а что делать, если в одном из поключаемых цифровых устройств алгоритм некой обработки (гармонайзер, например, или lookahead лимитер) работает с задержкой? Осилит ли оно такое?
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
Да, я чуть уже дальше поразбирался со всем этим и с супортом RME пообщался.
Указанная компенсация, это именно то, как ты это понял, т.е. компенсации задержки, возникающей в результате работы самого протокола при подключении нескольких устройств.
<div class='quotetop'>Цитата</div>
Я же имел в виду, а что делать, если в одном из подключаемых цифровых устройств алгоритм некой обработки (гармонайзер, например, или lookahead лимитер) работает с задержкой? Осилит ли оно такое?[/b]
Нет, конечно.
Но такой тип задержки, во-первых страшен только для одного сигнала идущего по разным путям, а во-вторых, от таких проблем не защищён и аналог. Причём здесь цифра?
Что касается темы...............................
Да.........., не простое это оказалось дело разобраться с возможностью чисто цифрового сэтапа. :(

Главное резюмэ - в любом случае, для одновременной работы с более чем одним источником не имеющим WC In - нужно на пути всех источников ставить Сэмпл Рэйт Конвертер имеющий WC In.
Причём от качества этого SRC зависит и качество самой цифры.
Получается, что в такой ситуации нужно сравнивать пагубность влияния SRC и DA/AD конвертации.
Я сравнил Drawmer DMS-1 SRC с DA/AD конвертацией ADI-8DS ----- процесс SRC оказывает на сигнал меньшее воздействие чем DA/AD, это без учёта проблем наводок на Аналог.

В общем я всёже решил попробовать такой чисто цифровой сэтап собрать.
Когда сделаю - напишу, но уже чётко вижу, что это не будет дёшево. :(
 

sansara

Well-Known Member
4 Авг 2006
1.523
345
83
45
Moscow
realrocks.ru
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
<div class='quotetop'>Цитата(supersonic @ Sep 11 2007, 11:32 PM) [snapback]493195[/snapback]</div>
Из текста не понял, о какого рода компенсации задержки идет речь? Если это компенсации задержки, возникающей в результате работы самого протокола при подключении нескольких устройств, это одно. Я же имел в виду, а что делать, если в одном из поключаемых цифровых устройств алгоритм некой обработки (гармонайзер, например, или lookahead лимитер) работает с задержкой? Осилит ли оно такое?
[/b]
А вот фиг. В Adobe Audition, к примеру, в отличии от Sound Forge можно увидеть форму волны выше 0 децебел. Так вот, когда именно больше чем на 48 децебел в разрядности 32 float поднимать уровень, то форма волны после этого начнёт срезаться, а до 48 децебел сохранится. Можете сами попробовать.
 

Alexey Lukin

Well-Known Member
11 Июн 2003
1.947
1.328
113
38
audio.rightmark.org
<div class='quotetop'>Цитата(sansara @ Sep 13 2007, 04:00 AM) [snapback]493578[/snapback]</div>
В Adobe Audition, к примеру, в отличии от Sound Forge можно увидеть форму волны выше 0 децебел. Так вот, когда именно больше чем на 48 децебел в разрядности 32 float поднимать уровень, то форма волны после этого начнёт срезаться, а до 48 децебел сохранится.[/b]
Если это и так, то это свидетельствует не об ограничениях формата float, а об ограничениях Audition в поддержке этого формата. К счастью, это не так: в Audition можно усилить волну хоть на 150 дБ, а потом вернуть обратно практически без искажений. Единственный момент - для этого придется применить усиление несколько раз, т.к. панель Amplify поддерживает усиление только до +48 дБ. Audition просто не отображает отсчеты выше +48 дБ (по крайней мере, в моей версии 1.5; могу посмотреть, исправлено ли это в трешке).
 
R

Rustami

Guest
<div class='quotetop'>Цитата(sansara @ Sep 13 2007, 04:00 AM) [snapback]493578[/snapback]</div>
А вот фиг. В Adobe Audition, к примеру, в отличии от Sound Forge можно увидеть форму волны выше 0 децебел. Так вот, когда именно больше чем на 48 децебел в разрядности 32 float поднимать уровень, то форма волны после этого начнёт срезаться, а до 48 децебел сохранится. Можете сами попробовать.
[/b]
Некоторые редакторы просто некорректно работают с 32 бита флоат. Так что, не делай из этого выводов. Я могу на 100 поднять и показать тебе, что всё ок.
 

greennoise

Well-Known Member
14 Сен 2005
1.289
260
83
53
Муром
Посетить сайт
Только что в "Adobe Audition 1.5" разогнал 32-битную синусоиду 220 Hz 0 dBFS в "плюс" два раза по 48 dB.
Закрыл файл, открыл, нормализовал до 0 dBFS, - та же правильная синусоида без искажений.
С 16-битным файлом - прямоугольники.
Все желающие могут попробовать сами. :)
 

sansara

Well-Known Member
4 Авг 2006
1.523
345
83
45
Moscow
realrocks.ru
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
<div class='quotetop'>Цитата(Alexey Lukin @ Sep 13 2007, 01:39 AM) [snapback]493581[/snapback]</div>
Если это и так, то это свидетельствует не об ограничениях формата float, а об ограничениях Audition в поддержке этого формата. К счастью, это не так: в Audition можно усилить волну хоть на 150 дБ, а потом вернуть обратно практически без искажений. Единственный момент - для этого придется применить усиление несколько раз, т.к. панель Amplify поддерживает усиление только до +48 дБ. Audition просто не отображает отсчеты выше +48 дБ (по крайней мере, в моей версии 1.5; могу посмотреть, исправлено ли это в трешке).
[/b]
Если уровень волны равен или больше 0 децебел, то при усилении больше чем на 48 децебел её срежет, я проверял.


<div class='quotetop'>Цитата(Rustami @ Sep 13 2007, 05:47 AM) [snapback]493609[/snapback]</div>
Некоторые редакторы просто некорректно работают с 32 бита флоат. Так что, не делай из этого выводов. Я могу на 100 поднять и показать тебе, что всё ок.
[/b]
Если она -60 децебел по уровню, то и на 100 получится. Цифра 48 неслучайна - по 6 децебел на бит в дополнительных 8ми битах.
 

sansara

Well-Known Member
4 Авг 2006
1.523
345
83
45
Moscow
realrocks.ru
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
Блин, приношу извинения. Действительно не срезает. :unsure: Тогда я вообще ничего не понимаю. Кто-нибудь, объясните на пальцах! :blink:
 

Alexey Lukin

Well-Known Member
11 Июн 2003
1.947
1.328
113
38
audio.rightmark.org
Число float - это 24 бита мантиссы и 8 бит экспоненты.
24 бита мантиссы позволяют получить относительную точность в 7 десятичных цифр (т.е. относительный уровень шума равен -140 дБ).
8 бит экспоненты позволяют кодировать числа между 10^-38 и 10^38 (т.е. сигнал можно усилить или ослабить на 700 дБ).
Подробнее - http://ru.wikipedia.org/wiki/Плавающая точка
 

sansara

Well-Known Member
4 Авг 2006
1.523
345
83
45
Moscow
realrocks.ru
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
Тогда вопрос в следующем - нужен ли dithering при трансляции звука разрешением 32 float через 24х битный внешний цифровой интерфейс между разными аппаратными устройствами, если уровень сигнала не превышает 0 децебел? :huh:
 

Aleksandr Oleynik

Well-Known Member
16 Янв 2007
21.849
14.330
113
58
Киев
forum.videoediting.ru
И у мекня вопрос - нужно ли вообще использовать 32Bit и 32 float при записи сигнала и при его сохранении, ведь все просчёты внутри сиквенсора с сигналом 24Bit и так идут с повышением разрядности?
Например Logic не поддерживает файлов 32Bit, но все в один голос утверждают, что это никому и не нужно.
А дизеринг, на сколько я помню, делается один единственный раз при окончательном понижении разрядности.
 

Alexey Lukin

Well-Known Member
11 Июн 2003
1.947
1.328
113
38
audio.rightmark.org
<div class='quotetop'>Цитата(sansara @ Sep 14 2007, 11:09 PM) [snapback]494415[/snapback]</div>
Тогда вопрос в следующем - нужен ли dithering при трансляции звука разрешением 32 float через 24х битный внешний цифровой интерфейс между разными аппаратными устройствами, если уровень сигнала не превышает 0 децебел?[/b]
Dithering на уровне 24 бит практически ничего не дает, т.к. он намного ниже уровня собственных шумов звуковой аппаратуры. Так что, если только работа не идет с очень низкими уровнями сигнала, необходимости в нем нет.
 

Alexey Lukin

Well-Known Member
11 Июн 2003
1.947
1.328
113
38
audio.rightmark.org
<div class='quotetop'>Цитата(Aleksandr_Oleynik @ Sep 14 2007, 11:18 PM) [snapback]494421[/snapback]</div>
нужно ли вообще использовать 32Bit и 32 float при записи сигнала и при его сохранении, ведь все просчёты внутри сиквенсора с сигналом 24Bit и так идут с повышением разрядности?[/b]
Идет ли в секвенсоре повышение разрядности - это зависит от сиквенсора. Обычно идет. Формат 32-float имеет смысл использовать, если хочется не заботиться о пиковых уровнях и избежать клиппинга.
 
Статус
В этой теме нельзя размещать новые ответы.

Сейчас онлайн (Пользователей: 0, Гостей: 1)