Steinberg WaveLab для самых начинающих. Урок 4-й

Абсолютно недавно Боб Дилан в своем интервью сделал весьма интересное заявление о том, что качество звука в последние 20 лет просто ужасающее. Это, естественно, вызвало множество диспутов, причем не секрет, что у мнения Дилана есть много и сторонников, но… например, для меня это напоминает больше брюзжание старика, который все время делал счеты и считает их качественнее современных калькуляторов (не говоря о компьютерах). Дело в том, что шоу-бизнес ничем не отличается от любого другого бизнеса. На данный момент ему присущи: вложение больших средств, быстрая окупаемость, очень большая конкуренция, высокая скоротечность рынка. Посмотрите сами: фильмы и музыкальные альбомы оцениваются по первым неделям-месяцам продаж, поэтому — да, максимум возможного от громкости, да, "мясные" тембры, да, любые средства: приборы и устройства, для того чтобы продукт был ярче. Очень многое зависит от специалистов. Поэтому WaveLab, который мы изучаем урок за уроком, стоит рассматривать как современный инструмент профессионала, а то, что вам говорят, что редактирование, финальную обработку, мастеринг лучше производить в других программах — не верьте: это неверно.

То, что нужно знать изначально…


Конечно же, многие пытливые умы не стали дожидаться этого номера газеты и сами опробовали модуль Audio Error Detection and Correction из меню Analysis… А зря, между прочим. Терпение также необходимо. Итак, для начала практический эксперимент. Возьмите микрофон, активизируйте модуль записи в программе и произнесите, например, слово "поле" с заранее нарочитым взрывным "п". Записанная волна у вас будет выглядеть следующим образом: резкий старт с максимальной пиковой амплитудой, то есть сам взрывной звук "п" (назовем эту часть "пиком"), а часть "-оле" — ниже по амплитуде. Теперь посмотрим, какими методами данную ситуацию можно исправить, причем каждый из них (методов) является самостоятельным и отдельным от других:

1. Компрессор. Нужно настроить специальным образом параметр "атака", в результате чего скорость реакции процессора обработки будет медленней — "пик" сгладится.
2. Как один вариант из этого выделите фрагмент взрывного звука и примените функцию fade in (постепенное нарастание) — лучше, чтобы оно было нелинейным (non linear) — "пик" сгладится.
3. Эквалайзер. Мы выделяем фрагмент с буквой "п", находим, что максимальная амплитуда находится около 90 Гц, понижаем уровень на этой частоте, в результате чего картина выравнивается — "пик" пропадет.
4. Выделяем сам взрывной звук возле пиковой амплитуды, отмечаем границы маркерами и рисуем между их точками усредняющую линию с помощью "карандаша".
5. :) Излюбленный метод радийщиков: выделите небольшой фрагмент возле пиковой амплитуды, но таким образом, чтобы границы выделения совпадали с точками пересечения волной центральной оси (нуля). Удалите фрагмент.

Итак, вот пять методов, которые используются для исправления ошибок, возникающих в результате присутствия коротких нежелательных фрагментов. Причем пример с "п" был приведен для иллюстративности, поскольку мы говорили о взрывном звуке, а тут речь пойдет немного о другом — о щелчках. По существу, их можно назвать "кликами", в английской терминологии — "clicks" (в переводе — щелчок). Причем эти артефакты могут иметь абсолютно разную природу, то есть возникать в тракте записи (аналоговой или цифровой его части), а также при игре на инструменте, воспроизведении чего- либо голосом, являться последствиями обработки. Методы их исправления очень схожи с теми, что мы описали выше.

Давайте обратим внимание на теоретические аспекты. В прошлых уроках мы говорили, что человек чувствует изменение громкости при перепаде значений на 1-2 дБ. А с какой скоростью человек реагирует на изменение звука? Удивитесь, но — 0,05 мс-0,06 мс (чтобы было образнее, 0,00005-0,00006 с). Многие спросят, откуда данные? Ведь часто в книгах и материалах по звукорежиссуре пишут о реакции 1-2 мс. Но все проще — наш слышимый частотный диапазон в верхней его границе составляет от 16 до 20 КГц. Если открыть школьный учебник физики, то можно узнать, что частота обратна периоду, то есть для того, чтобы воспринять и зафиксировать в сознании частоту 20 КГц, нужно иметь скорость реакции как минимум 1/20.000. Конечно, у каждого человека верхний порог слышимости является чисто индивидуальным параметром, к тому же, с возрастом слух и чувствительность постепенно ухудшаются, снижается и способность к восприятию звука на высоких частотах. Параметр 1-2 мс часто приводится не зря, поскольку соответствует частотам 500-1000 Гц, то есть среднему частотному диапазону, к которому человек наиболее чувствителен. Самые умные из читателей могут задать вопрос, почему я в формулы по расчетам не вставил дополнительную двойку (теорема Котельникова, критерии Найквиста), но мне почему-то кажется:), что человеческий мозг не делает дискретную выборку из акустического сигнала — у него реал-тайм-процессор. То есть, если ваша запись (файл) содержит кратковременные щелчки (аналоговые, цифровые), длина которых кажется очень малой (0,2-0,5 мс), следует знать, что они будут восприниматься и ощущаться человеком. С данными артефактами боролись по-разному — например, некоторое время для струнных щипковых (гитар и т.п.) специально настраивались компрессоры (ключевой регулируемый параметр — атака, "attack"), помимо этого, на эквалайзерах регулировался уровень на определенных частотах. Почему нам и пришлось, собственно, перед описанием модуля Audio Error Detection and Correction рассказать о динамической обработке и эквализации.

Audio Error Detection and Correction. Работа с модулем

Итак, у нас есть загруженный файл. Выделяем определенный фрагмент, вызываем наш модуль из меню Analysis. Работать в нем можно двумя способами: пошагово и автоматически. То есть для полной автоматизации процессов выберите метод Click Detection 2, а метод реставрации — Linear Interpolation, нажмите кнопку Detect All Errors, а затем Correct All Errors. Закрывайте модуль и живите спокойно:). А если разбираться, то для начала рассмотрим методы обнаружения, их три: Click Detection 1 и Click Detection 2 (детектирование "кликов" на всем частотном диапазоне, хотя в варианте Click Detection 2 ширину сканируемого диапазона можно менять) и Digital Error Detection, что есть не что иное как анализатор каждой конкретной точки цифровой выборки. Зачем он нужен? Вспомните наш пример со взрывным звуком и посмотрите на "радийный", то есть 5-й, вариант решения проблемы. Для чего там нужно было равнять границы "под нули"? Дело в том, что в таком варианте при удалении ничего существенно не изменится, то есть волна переходит через нулевую отметку, и никаких критических перепадов не наблюдается. Но если вы обрежете границы неровно, и возникнет большой перепад, то при воспроизведении услышите щелчок.

Теперь о методах исправления. Во-первых, это линейная интерполяция — другими словами, некое усреднение значений, в результате чего вместо "критического фрагмента" появляется обычная линия, соединяющая две точки на границах, отмеченных маркерами, которые появляются автоматически при обнаружении ошибки. Помимо этого, есть и другие варианты, то есть специализированные алгоритмы для удаления щелчков длительностью менее 1 мс или же около 3 мс, а также для больших аудиофрагментов (0,5-4 мс). При пошаговом режиме используйте кнопку Detect Next Error для исправления Correct Current Error, а если захотите что-то исправить самостоятельно, то оставьте маркеры на данном фрагменте (Mark for later restoration). На самом деле этот модуль избавляет от большого количества рутинной работы, которая у многих отнимала много времени, а некоторые не думали вообще об этом вопросе.

Что за чем следует?

Естественный вопрос, который возникнет у начинающего специалиста после прочтенного — так что за чем делать? В принципе, работа самого модуля Audio Error Detection and Correction не вносит серьезных изменений в полезный сигнал, а просто исправляет артефакты. Поэтому использовать эту операцию можно на любом этапе рабочего процесса.

Эффекты. Задержка

Итак, на данном этапе имеет смысл поговорить об эффектах. То есть с помощью эквалайзера и динамического процессора вы уже можете создать какие- либо варианты звучания для каждого из инструментов, но хочется чего-то более интересного.

Создайте новое окно AudioMontage (File —> New —> AudioMontage). Перед вами откроется многодорожечный модуль (только аудио) WaveLab. Изначально будет присутствовать только один пустой трек, в который вы вставляется wav-файл (pop-up-меню — Insert File(s)). Далее на левой панели этого трека вы нажимаете на число, соответствующее его номеру, в результате появляется меню, где предлагается добавить новые треки. Создаете трек №2. С помощью курсора и Ctrl+C/Ctrl+V копируете файл с первого трека на второй. А теперь можете экспериментировать с задержками, просто меняя положения файла на втором треке относительно первого. Какие эффекты можно получить? Флэнджер, хорус, дилэй (в принципе, delay и переводится как задержка), реверберация, эхо. Все это можно получить экспериментальным путем на базе нашего изучаемого сейчас примера. При желании можете размножить файл на еще большее количество треков и добиться уникальных результатов. Видите? Программировать ничего не нужно, в скачивании из Интернета программных модулей нет необходимости. Все наглядно и работает.

Давайте теперь разберемся в терминологии, а именно чем отличаются понятия "дилэй", "реверберация", "эхо". Дилэй предусматривает просто наличие некоторой задержки в повторениях звука через определенные заранее указанные интервалы времени. Реверберация — это естественный эффект, близкий к акустическому, то есть он эмулирует пространство, материалы, отражение от препятствий и так далее. Эхо — это эффект реверберации с повторениями. Но, кстати, очень часто вы можете видеть либо совмещенные модули (у ревербераторов есть пресеты для флэнджеров, хорусов, дилэев, эха), либо путаницу с понятиями. То есть в непрофессиональных работах дилэй называется эхом и т.д. Это неверно. К тому же, как уже сказано, в модулях реверберации эмулируются естественные пространства и препятствия. Дело в том, что огромное значение имеют формы и размеры, к тому же, материалы обладают характерным "звуковым окрасом" и часто работают как фильтры (то есть поглощают одни частоты и отражают другие). Ну, достаточно будет войти в деревянную баню либо прослушать ее эмуляцию на РС. И еще одно применение задержки, которое активно используется в индустрии — стереорасширение. Закрываем все окна из предыдущих опытов. Возьмите монофайл. Скопируйте его в буфер (Copy). Создайте новый стереофайл, поместите (Paste) в каждый из его каналов ранее скопированный моно, но, когда помещаете во второй канал, предусмотрите некоторую небольшую временную задержку. Что получится при воспроизведении? Стерео, вернее, этот эффект называется псевдостерео. Таким образом, делаем вывод, что при задержке, предусмотренной между правым и левым каналами, появляется дополнительный объем в стереопространстве. Само псевдостерео в индустрии используется нередко, а если говорить о конкретной звукозаписи, то очень часто гитары пишут "даблами" (от англ. double — двойной). То есть гитарист играет свою партию два раза: один — для левого канала, второй — для правого. В результате даже при самых суперрепетициях до этого в некоторых элементах будет присутствовать небольшая задержка — получается очень хороший и естественный объем.

Вот как много может дать только одна временная задержка. Думаю, что в голове у вас уже роится множество экспериментальных идей. Приступайте!

Кристофер, christopher@tut.by


Компьютерная газета. Статья была опубликована в номере 37 за 2006 год в рубрике мультимедиа

©1997-2024 Компьютерная газета