Горячая линия мультимедиа

Многие из моих близких удивляются, особенно когда на вопрос типа "что такое частота дискретизации?" я трачу много времени, пишу полный и понятный ответ, и так по множеству писем, причем эти ответы даже не публикуются. "Зачем тебе это нужно?" — спрашивают. Чтобы не вдаваться в дискуссии, всегда отвечаю: "Не знаю", — а на самом деле технологии, о которых пишется в современной прессе, являются топ-технологиями, в которых нужно разбираться, и чем больше человек это сможет осилить своим умом, тем лучше… Конечно же, можно было создать рубрику типа "По вашим письмам", но "Горячая линия мультимедиа" — это уже стандарт:). Итак…

Я хотел бы сделать свой VST-инструмент, не могли бы вы мне помочь разобраться, как нужно (или можно) сделать простые и легкие, а также сложные и красивые (подобие Gunter Hager Fortune) VST. Может, есть какие-нибудь программы, которые облегчают этот непосильный труд? Или укажите пару- тройку ссылок, где можно об этом почитать. Очень хочется попробовать себя в этой сфере деятельности.


В принципе, основные и были указаны в материале из прошлого номера: SynthMaker и SynthEdit. Хотя есть еще и Quantum fx от db Audioware. Причем, если вы владеете программированием на С++, то освоение Steinberg VST SDK (SDK — Software Development Kit) не будет для вас чем-то сложным. Насчет ссылок… я их могу дать много, но от них мало толку. Популярный сейчас разработчик VST-плагинов Voxengo является россиянином, и, кстати, с ним у нас несколько лет назад было интервью. Вот с ним и списывайтесь. И в любом случае хочется предупредить: продукт, даже если он и не совсем коммерческий, все равно должен выглядеть как продукт. То есть хороший графический дизайн — это 50% успеха. И еще лучше, если он будет новаторским. Такие можно увидеть как у упомянутого Gunter Hager Fortune, так и в Ohm Force. Эти плагины запоминаются.

А что такое диттеринг? Есть ли он у меня на плате Creative X-Fi Music?

Во-первых, я настаиваю, чтобы слово "дитеринг" писалось с одним "т", поскольку это производная от английского "dithering". При этом несколько лет назад некоторые журналисты и специалисты негласно договорились о том, что правильнее печатать не "дизеринг", а "дитеринг" (русская адаптация звука от сочетания "th"). Я нашел это замечание уместным, поэтому поддержал идею.

Итак, если простыми словами, дитеринг — это искажения, появляющиеся из-за аритмии. То есть при дискретизации аналогового сигнала выборка идет через равные интервалы времени благодаря тактовому генератору или чему-то подобному. Если эти интервалы не равны, а тот же компьютер считает, что выборка идет равномерно, появляются искажения, то есть неправильное цифровое преставление аналогового сигнала. В звуковых платах на современных компьютерах этого уже давно нет. Единственное, где такой отрицательный момент может иметь место — рассинхронизация при передаче цифрового сигнала от одного интерфейса к другому. Поэтому в данном случае нужно внимательно читать о наличии протоколов синхронизации и их стандартов. Соответственно и строить коммутацию. На самом деле сейчас из этого понятия пытаются раздуть проблему, которой, собственно, уже и нет. При этом в компьютерной терминологии "dithering" расшифровывается и как подмешивание псевдослучайного шума, а в звуке данное понятие ассоциируется с цифровыми искажениями.

В ASIO-драйверах моей платы и программе Adobe Audition есть посэмпловая регулировка как в положительную, так и в отрицательную сторону. Зачем нужна отрицательная?

Лично я с этой проблемой впервые серьезно столкнулся, когда работал на одной студии, где имелась плата Korg OASYS и эффект-процессор tc electronic FireworX. Я всегда использую многоблоковый метод, то есть имеется основной трек и множество его обработанных вариантов, а потом в программе-мультитреке я делаю специальный баланс межу ними, чтобы в некоторые моменты подчеркнуть присутствие того или иного эффекта. Так вот, при прохождении сигнала через цепочку "интерфейс-FireworX-интерфейс" появлялась ощутимая задержка, то есть все вроде бы и real-time, но записанные треки отставали по времени. Доходило даже до того, что в некоторых случаях был слышен реальный флэнджер. В результате приходилось практически посэмплово высчитывать приходящие треки (для каждого набора эффектов эти числа были различными) и синхронизировать. Точно такая же ситуация имеет место, если вы строите студию на базе нескольких РС и т.п. Внешние процессоры эффектов — это ладно, но потом разработчики — кстати, одними из первых данную проблему подняли Waves Ltd. — отметили, что при обработке программными плагинами также существует цифровая временная задержка. И действительно, она есть. Waves Ltd. и иже с ними практически раздули ситуацию, на чем не только сами заработали денег, но и заставили других разработчиков уделить внимание. Хотя в тот период я взял интервью у Криса Крейга (Chris Craig) — автора некогда популярного звукового редактора GoldWave. Он тогда отметил, что эта проблема очень раздута, и обыкновенный пользователь ничего не заметит — его позиция понятна, но об этом в конце ответа. Но все же такая задержка есть. Теперь рассмотрим, как ведет себя мультитрековая программа при команде Воспроизведение (Play) при подключенном плагине эффекта. Если простыми словами, то она в режиме реального времени посылает цифровые данные (сигнал) на обработку его (плагина) алгоритмами, а потом смешивает (микширует) результаты. На все производимые вычисления нужно время — пусть короткое, но время. Программисты решают эти вопросы по-разному, но если вы видите в описании программ или плагинов строку "no latency" или "minimal latency" — значит, они уделили этому должное внимание. Кстати, в принципе, это расплата за real-time, то есть режим реального времени. Программные алгоритмы до этого нововведения работали с конкретными цифровыми данными — читайте: конкретными точками, — и ни о какой задержке тогда и речи не было.

По вашему совету долго записывался в студии, но потом приобрел тоже по вашему совету микрофон Shure и понял, что студия мне не нужна…

Письмо длинное, но смысл его таков: человек начал немного разбираться в звукорежиссуре с технической точки зрения, что, в принципе, неплохо для современного музыканта. Итак, что хочется отметить: современные микрофоны все очень хорошие и качественные. Если не подходит АЧХ одного, его можно сменить в автоматическом режиме на АЧХ другого в программе Antares Microphone Modeller. Но в современных студиях часто используют новейший ноу-хау, а именно запись на микрофонные пары. Тут нужны дорогие конденсаторные модели, поскольку они обладают по сравнению с динамическими большей чувствительностью. При записи получается очень хороший 3D-объем, который не нужно создавать впоследствии дополнительными средствами. Для описания результатов лучше всего подойдет слово "интим". То есть звучание голоса получается натуральным.

Кристофер, christopher@tut.by


Компьютерная газета. Статья была опубликована в номере 24 за 2006 год в рубрике мультимедиа

©1997-2023 Компьютерная газета