Что такое rtas плагины
CJcityForum.ru
Часовой пояс: UTC + 5 часов
Правила форума
Что такое RTAS
Проездом |
Зарегистрирован: 07 фев 2006, 06:15
Сообщения: 46
Откуда: МОСКВА
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
Постоялец |
Зарегистрирован: 11 окт 2005, 17:13
Сообщения: 285
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
Старожил |
Зарегистрирован: 09 мар 2005, 05:34
Сообщения: 1955
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
Модератор |
Зарегистрирован: 15 дек 2005, 01:23
Сообщения: 2604
Откуда: Москва
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
Тебе дать почитать интервью представителя фирмы Waves? Кто тебе сказал что PT звучат лучше? Может там цифры другие? |
Старожил |
Зарегистрирован: 09 мар 2005, 05:34
Сообщения: 1955
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
в сочетание с железкой протулсовской + я добавил слово «судъективно». Хотя и вам попробовать стоит. |
Постоялец |
Зарегистрирован: 11 окт 2005, 17:13
Сообщения: 285
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
Ну.. Если речь заходит про железки, то тут даже спорить не о чем. Ежу понятно, что при наличии хорошего DSP звук улучшается на порядки. |
Старожил |
Зарегистрирован: 09 мар 2005, 05:34
Сообщения: 1955
Благодарил (а): 0 раз.
Поблагодарили: 0 раз.
Часовой пояс: UTC + 5 часов Кто сейчас на конференцииСейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1 Что такое rtas плагиныЗвукорежиссёры запись закрепленаГид по форматам плагинов и их совместимости с DAW Появление формата VST в 1996 году — событие, изменившее музыкальную индустрию и методики создания музыки с помощью компьютера. Протестировав возможности VST и выложив ее в свободный доступ, компания Steinberg открыла двери в мир творчества всем и каждому, вне зависимости от социального и финансового положения. Технология позволила перенести аналоговые музыкальные инструменты в цифровую среду, а обработку звукового сигнала доверить ресурсам компьютера. Со временем разработкой схожих форматов занялись и другие компании: Apple адаптировала технологию для операционной системы macOS, создав формат Audio Units (AU), а Digidesign занялась развитием технологии Real Time AudioSuite (RTAS), поддержка которой появилась в Pro Tools. В 1999 году Steinberg обновила формат до версии 2.0, добавив поддержку виртуальных инструментов, позволивших создавать цифровые версии музыкальных инструментов и использовать их внутри цифровых рабочих станций или в виде самостоятельных программ. Сегодня VST-плагины стали именем нарицательным — этим термином в разговорной речи музыканты обозначают виртуальные инструменты и эффекты в любом формате. И если «матерые» музыканты понимают, о чем идет речь и какие плагины нужны, то молодых музыкантов такое обобщенное обозначение приводит в замешательство: не понятно, какие виды плагинов поддерживают разные цифровые рабочие станции, в чем разница между форматами (этого иногда не знают и те, кто «в теме»), какой разрядности отдавать предпочтение и как не ошибиться с выбором. Основные форматы музыкальных плагинов VST VST (от англ. Virtual Studio Technology — Технология Виртуальной Студии) — самый популярный формат плагинов на сегодняшний день, поддерживающий работу в среде Windows, macOS и Linux. Плагины зависят от ресурсов компьютера (являются нативными) и подключаются к звуковым и музыкальным программам и рабочим станциям, и функционируют в режиме реального времени. Формат VST изначально разрабатывался совместными усилиями Steinberg и Propellerhead, но впоследствии Propellerhead покинула проект по разработке VST. Несмотря на то, что сегодня VST-плагинами называют любые цифровые эффекты и инструменты, формат в первую очередь относится к программным аудиоэффектам (эквалайзеры, компрессоры, дилэи и т.д.), подгружаемым в рабочие станции. VSTi (Virtual Studio Technology instrument) В отличие от VST, VSTi-плагины представляют собой звукообразующий инструмент (синтезатор или сэмплер). В то время как VST-плагины фокусируются на звуковых эффектах, VSTi воспроизводят сигналы, имитирующие звучание реальных инструментов и синтезаторов. Логическое продолжение VST в виде третьей версии было представлено Steinberg в 2008 году, а в 2011 году немецкая компания выпустило еще одно обновление стандарта, получившее название VST 3.5. В чем отличия VST3 от VST и VST2: Поставка только в 64-битном формате; Формат разработан специально для операционных систем компании Apple — macOS и iOS. Фактически, Audio Units — набор API, позволяющий операционной системе генерировать, обрабатывать, воспроизводить и манипулировать звуковым сигналам с минимальным уровнем задержки. Тем не менее, отличий от VST/VSTi — нет, если не брать в расчет, что AU могут выступать как в роли эффектов, так и инструментов. Благодаря сходству между VST и AU, некоторые компании разрабатывают специальные программы (см. FXpansion VST to AU Adapter V2 и Symbiosis), позволяющие конвертировать VST в AU. Формат Audio Units поддерживается всеми рабочими станциями, обладающими версиями для macOS (см. таблицу). RTAS (Real Time AudioSuite) Формат RTAS был разработан компанией Digidesign (ныне — Avid Technology) специально для рабочей станции Pro Tools и использовался вплоть до Pro Tools 10. Отличий от VST и AU не существует — RTAS также используют вычислительные мощности персонального компьютера, просты в использовании и обладают широкими возможностями автоматизации. Еще один распространенный формат плагинов, созданный компанией Digidesign для использования только с рабочей станцией Pro Tools. AAX (Avid Audio eXtensions) Вместе с выходом Pro Tools 11 в 2013 году, компания Avid отказалась от дальнейшей поддержки RTAS и представила новый формат AAX. Свое решение компания объяснила закрытостью форматов VST и AU (только Steinberg и Apple могут вносить изменения в принципы работы форматов), а также их нативностью — оба формата зависят от ресурсов компьютера, не поддерживая работу с внешними DSP-процессорами (VST/AU несовместимы с DSP, а пользователям нужны специальные версии плагинов). Так как Pro Tools одинаково хорошо работает с нативными и DSP-процессорами, Avid решила инвестировать в разработку собственного формата виртуальных плагинов. Основное отличие AAX от RTAS заключается в удобстве использования. AAX могут работать сразу в двух режимах (нативном и DSP), а значит пользователям больше не нужно устанавливать две версии одного и того же плагина, чтобы работать в разных студийных условиях. DXi (DirectX plugin) Формат плагинов от Microsoft и Cakewalk, построенный на технологии DirectX, но мало чем отличающийся от VST и AU. Использование DirectX и стандарта Microsoft COM позволяет плагинам определяться в системе и работать с любыми звуковыми программами на ОС Windows, даже если хост изначально не поддерживает DX-плагины, но «знаком» с форматом VST. Что же касается структуры, то DirectX-плагины представляют собой особый вид DirectShow-фильтров. Также как VST, DX-плагины делятся на два вида: DX — плагины эффектов, и DXi — виртуальные инструменты. Специальные звуковые библиотеки, объединяющие в себе высококачественные сэмплы, MIDI-файлы, лупы, грувы, патчи и даже целые проекты композиций. Формат ReFill поддерживается и развивается компанией Propellerhead и предназначен только для использования с рабочей станцией Propellerhead Reason.В чем отличия между разными форматами плагинов? С точки зрения практического использования, отличий между разными форматами плагинов попросту нет, а вся разница заключается в технических моментах (методика и технологии разработки), мало затрагивающих музыкантов. Основные отличия заключаются в разрядности и методиках поставки эффектов и инструментов. 95% современных плагинов и виртуальных инструментов поставляются в виде загружаемого установщика, хотя некоторые производители продолжают выпускать коробочные версии собственных разработок (см. Native Instruments Komplete, Mixosaurus). Количество оперативной памяти, которую компьютер может выделить на один процесс, значительно больше при использовании 64-битных операционных систем. В то время как 32-битные ОС ограничены 4 Гб памяти на один процесс, 64-битные лишены такого ограничения. Для того, чтобы плагин и операционная система использовали всю доступную в компьютере оперативную память, плагин должен быть написан специально под 64-битные системы. При работе с 64-битными плагинами ОС гибко расходует оперативную память, грамотно распределяя ее между всеми используемыми в проекте инструментами и обработками по принципу «столько, сколько сейчас нужно». При этом те плагины, которые не используются в данный момент, ОС переводит в «режим ожидания», минимизируя потребление ресурсов компьютера. Проблема 32-битных плагинов распространяется на плагины в форматах VST2, RTAS и DXi, в то время как VST3/AU/AAX-плагины всегда поставляются в виде 64-битных разработок. Тем не менее, многие современные DAW оснащены специальными инструментами конвертации плагинов в нужную разрядность (работает как в сторону x86->x64, так и обратно), которые незаметно для пользователя заставляют ОС думать, что работа ведется с x64-плагинами, что приводит к эффективному потреблению ресурсов ПК. VST плагины, что это такое?Стандарт VST-плагиновИ так, что же такое VST-плагины? Virtual Studio Technology (виртуальная студийная технология, сокращенно VST) — стандарт плагинов звуковых эффектов и программных синтезаторов, введенный в 1996 г. фирмой Steinberg. Работа с VST-инструментами (VSTi), осуществляется через так называемую программу-хост (англ. host), например секвенсер, в среде которого запускается плагин. К самым известным программам-хостам относятся такие программы как Ableton Live, Cubase, FL Studio, Reaper и Sonar. VST-RTAS адаптерыVST-плагины можно подключить и к совместимым с этим стандартом программам, используя специальные адаптеры. Например существуют VST-RTAS адаптеры, обеспечивающие подключение VST-плагинов в программу Pro Tools или VST-AU адаптеры, обеспечивающие подключение VST-плагинов в Logic Pro, которая работает под Mac OS X.
Политика Steinberg, направленная на выдачу бесплатных лицензий фирмам на использование технологии VST своих разработках стала причиной того, что этот стандарт стал основным на рынке музыкального программного обеспечения. В 1999 была внедрена новая версия технологии, обозначаемая как VST 2.0. Разновидности VSTПри наличии соответствующего аппаратного обеспечения и драйверов, а именно звуковой карты поддерживает протокол ASIO, VST-плагины могут использоваться в реальном времени. ASIO обходит более медленные средства Windows, обеспечивая меньшую задержку. Существует три 3 типа VST плагинов: Программирование&Музыка: понимаем и пишем VSTi синтезатор на C# WPF. Часть 1Занимаясь музыкальным творчеством, я часто делаю аранжировки и записи на компьютере — используя кучу всяких VST плагинов и инструментов. Стыдно признаться — я никогда не понимал, как «накручивают» звуки в синтезаторах. Программирование позволило мне написать свой синтезатор, «пропустить через себя» процесс создания звука. Я планирую несколько статей, в которых будет пошагово рассказано, как написать свой VST плагин/инструмент: программирование осциллятора, частотного фильтра, различных эффектов и модуляции параметров. Упор будет сделан на практику, объяснение программисту простым языком, как же все это работает. Теорию (суровые выводы и доказательства) обойдем стороной (естественно, будут ссылки на статьи и книги). Ниже представлен обзорный ролик моего простого синтезатора, полученных интересных звучаний. Предстоит нелегкий путь, если вы готовы — добро пожаловать под кат. Цикл статейОглавлениеЗагадочный мир синтеза звукаЯ очень люблю музыку, слушаю разные стили, играю на различных инструментах, и, конечно, сочиняю и записываю аранжировки. Когда я начинал использовать эмуляторы синтезаторов в звукозаписывающих программах (да и сейчас) я всегда перебирал кучу пресетов, искал подходящее звучание. Перебирая пресеты одного синтезатора можно встретить как «ожидаемый» звук электронного синтезатора из детства (музыка из мультика Летучий Корабль) так и имитацию ударных, звуков, шума, даже голоса! И все это делает один синтезатор, с одними и теми же ручками параметров. Это меня всегда удивляло, хотя я понимал: каждый звук — суть конкретная настройка всех ручек. Недавно я решил наконец-таки разобраться, каким же образом создаётся (или, правильнее сказать, синтезируется) звук, как и почему нужно крутить ручки, как видоизменяется от эффектов сигнал (визуально и на слух). И конечно же, научиться (хотя бы понять основы) самому «накручивать» звук, копировать понравившиеся мне стили. Я решил последовать одной цитате:
Конечно, все подряд делать не надо (куда столько велосипедов?), но сейчас я хочу получить знания и самое главное — поделиться ими с вами. Цель: не углубляясь в теорию, создать простой синтезатор, сделав упор на объяснение процессов с точки зрения программирования, на практике. В синтезаторе будут: Все составляющие я планирую рассмотреть в нескольких статьях. В данной будет рассмотрено программирование осциллятора. Программировать будем на C#; UI можно писать либо на WPF, либо на Windows Forms, либо вообще обойтись без графической оболочки. Плюс выбора WPF — красивая графика, которую достаточно быстро кодить, минус — только на Windows. Владельцы других ОС — не расстраивайтесь, всё-таки цель — понять работу синтезатора (а не запилить красивый UI), тем более, код, который я буду демонстрировать, можно быстро перенести, скажем, на С++. Программирование логики синтезатора начнется с главы Пишем простой осциллятор. Если вам не интересны технические стороны написания VST плагинов, вы просто хотите прочитать про, собственно, синтез (и ничего не кодить) — милости прошу сразу к этой главе. Исходный код написанного мной синтезатора доступен на GitHub’е. Звук в цифровом видеПо-сути, конечная наша цель — создание звука на компьютере. Обязательно прочитайте (хотя бы, бегло) статью на хабре «Теория звука» — в ней изложены базовые знания о представлении звука на компьютере, понятия и термины. Любой звуковой файл в компьютере в несжатом формате представляет собой массив семплов. Любой плагин, в конечном счете, принимает и обрабатывает на входе массив семлов (в зависимости от точности это будут float или double числа, либо можно работать с целыми числами). Почему я сказал массив, а не одиночный семпл? Этим я хотел подчеркнуть что обрабатывается звук в целом: если вам нужно сделать эквализацию, вы не сможете оперировать одним лишь семплом без информации о других. Хотя, конечно, есть задачи, которым не важно знать, что вы обрабатываете — они рассматривают конкретный семпл. Например, задача — поднять уровень громкости в 2 раза. Мы можем работать с каждым семплом по-отдельности, и нам не нужно знать про остальные. VST SDKVST (Virtual Studio Technology) — это технология, позволяющая писать плагины для программ обработки звука. Сейчас существует большое множество плагинов, решающих различные задачи: синтезаторы, эффекты, анализаторы звука, виртуальные инструменты и так далее. Чтобы создавать VST плагины, компания Steinberg (некоторые ее знают по программе Cubase) выпустила VST SDK, написанный на C++. Помимо технологии (или, как еще говорят, «формата плагинов») VST, есть и другие — RTAS, AAX, тысячи их. Я выбрал VST, из-за большей известности, большого количества плагинов и инструментов (хотя, большинство известных плагинов поставляется в разных форматах). На данный момент актуальная версия VST SDK 3.6.6, хотя многие продолжают использовать версию 2.4. Исторически складывается, что сложно найти DAW без поддержки версии 2.4, и не все поддерживают версию 3.0 и выше. VST SDK можно скачать с официального сайта. Если вы намерены серьезно разрабатывать плагины, и хотите использовать последнюю версию SDK, то вы можете самостоятельно изучить документацию и примеры (все можно скачать с официального сайта). Сейчас я кратко изложу принципы VST SDK 2.4, для общего понимания работы плагина и его взаимодействия с DAW. Дальнейшие функции, перечисления и структуры вы можете найти в скачанном VST SDK в исходниках из папки «VST3 SDK\pluginterfaces\vst2.x». Библиотека должна экспортировать функцию со следующей сигнатурой: Функция принимает указатель на коллбэк, чтобы плагин мог получать необходимую ему информацию от хоста. Все делается на достаточно «низком» уровне — чтобы хост понял, что от него хотят, нужно передавать номер команды через параметр opcode. Перечисление всех опкодов хардкорные C-кодеры могут найти в перечислении AudioMasterOpcodesX. Остальные параметры используются аналогичным образом. VSTPluginMain должна вернуть указатель на структуру AEffect, которая, по-сути, и является нашим плагином: она содержит информацию о плагине и указатели на функции, которые будет вызывать хост. Основные поля структуры AEffect: Информация о плагине. Название, версия, число параметров, число программ и пресетов (читай далее), тип плагина и прочее. Фунции для запроса и установки значений параметров. Функции смены пресетов/программ. Фунция обработки массива семплов float** — это массив каналов, каждый канал содержит одинаковое количество семплов (количество семплов в массиве зависит от звукового драйвера и его настроек). В основном встречаются плагины, обрабатывающие моно и стерео. Супер-функция, подобна audioMasterCallback. Вызывается хостом, по параметру opcode определяется необходимое действие (список AEffectOpcodes). Используется, чтобы узнать дополнительную информацию о параметрах, сообщать плагину об изменениях в хосте (изменение частоты дискредитации), для взаимодействия с UI плагина. При работе с плагином было бы очень удобно, чтобы юзер мог сохранить все настроенные ручки и переключатели. А еще круче, чтобы была их автоматизация! Например, вы можете захотеть сделать знаменитый эффект rise up — тогда вам нужно менять параметр cutoff (частота среза) эквалайзера во времени. Чтобы хост управлял параметрами вашего плагина, в AEffect есть соответствующие функции: хост может запросить общее количество параметров, узнать или установить значение конкретного параметра, узнать название параметра, его описание, получить отображаемое значение. Хосту все равно, какая логика у параметров в плагине. Задача хоста — сохранять, загружать, автоматизировать параметры. Хосту очень удобно воспринимать параметр, как float-число от 0 до 1 — а уж плагин пусть как хочет, так его и толкует (так и сделали большинство DAW, неофициально). Пресеты (в терминах VST SDK — programs/программы) это коллекция конкретных значений всех параметров плагина. Хост может менять/переключать/выбирать номера пресетов, узнавать их названия, аналогично с параметрами. Банки — коллекция пресетов. Банки логически существуют только в DAW, в VST SDK есть только пресеты и программы. Поняв идею структуры AEffect можно набросать и скомпилировать простой DLL-плагинчик. WDL-OL и JUCEЧем плоха разработка на голом VST SDK? На сцену выходит WDL-OL. Это C++ библиотека для создания кроссплатформенных плагинов. Поддерживаются форматы VST, VST3, Audiounit, RTAS, AAX. Удобство библиотеки состоит в том, что (при правильной настройке проекта) вы пишете один код, а при компилировании получаете свой плагин в разных форматах. WDL-OL решает, по крайней мере, первые три пункта минусов разработки на VST SDK. Все, что вам нужно — корректно настроить проект (первая статья из блога), и отнаследоваться от класса IPlug. Теперь с чистой совестью можно реализовать функцию ProcessDoubleReplacing, которая, по сути и является «ядром» плагина. Все заботы взял на себя класс IPlug. Если его изучать, можно быстро понять, что (в формате VST) он является оберткой структуры AEffect. Коллбэки от хоста и функции для хоста превратились в удобные виртуальные функции, с понятными названиями и адекватными списками параметров. Помимо WDL-OL я так же узнал про библиотеку JUCE. JUCE похожа на WDL-OL, решает все заявленные минусы разработки на VST SDK. Помимо всего прочего, она уже имеет в своем составе и UI-редактор, и кучу классов для работы с аудио данными. Я лично ее не использовал, поэтому советую прочитать о ней, хотя бы, на вики. Если вы хотите писать серьезный плагин, тут я бы уже всерьез задумался над использованием библиотек WDL-OL или JUCE. Всю рутину они сделают за вас, а у вас же остается вся мощь языка C++ для реализации эффективных алгоритмов и кроссплатформенность — что не маловажно в мире большого количества DAW. Чем же мне не угодили WDL-OL и JUCE? Страничка библиотеки — vstnet.codeplex.com, там есть исходники, бинарники, документация. Как я понял, библиотека находится в стадии почти доделал и забил заморозки (не реализованы некоторые редко используемые функции, пару лет нет изменений репозитория). Библиотека состоит из трех ключевых сборок: Работает все это следующим образом При загрузке вашей либы необходимо, чтобы в ней был класс, реализующий интерфейс IVstPluginCommandStub: VstPluginInfo содержит базовую о плагине — версия, уникальный ID плагина, число параметров и программ, число обрабатываемых каналов. PluginConfiguration нужна для вызывающей либы-обертки Jacobi.Vst.Interop. В свою очередь, IVstPluginCommandStub реализует интерфейс IVstPluginCommands24, который содержит методы, вызываемые хостом: обработка массива (буфера) семплов, работа с параметрами, программами (пресетами), MIDI-сообщениями и так далее. Jacobi.Vst.Framework содержит готовый удобный класс StdPluginCommandStub, реализующий IVstPluginCommandStub. Все что нужно сделать — отнаследоваться от StdPluginCommandStub и реализовать метод CreatePluginInstance(), который будет возвращать объект (instance) вашего класса-плагина, реализующего IVstPlugin. Опять же, есть готовый удобный класс VstPluginWithInterfaceManagerBase: Если смотреть исходный код библиотеки, можно увидеть интерфейсы, описывающие компоненты плагина, для работы с аудио, параметрами, MIDI и т.д. : Класс VstPluginWithInterfaceManagerBase содержит виртуальные методы, возвращающие эти интерфейсы: Эти методы и нужно перегружать, чтобы реализовывать свою логику в кастомных классах-компонентах. Например, вы хотите обрабатывать семплы, тогда вам нужно написать класс, реализующий IVstPluginAudioProcessor, и вернуть его в методе CreateAudioProcessor. Используя различные готовые классы-компоненты можно сосредоточиться на программировании логики плагина. Хотя, вам никто не мешает реализовывать все самому, как хочется, основываясь только на интерфейсах из Jacobi.Vst.Core. Для тех, кто уже кодит — предлагаю вам пример просто плагина, который понижает громкость на 6 дБ (для этого нужно умножить семпл на 0.5, почему — читай в статье про звук). При программировании синта я столкнулся с некоторыми проблемами при использовании классов из Jacobi.Vst.Framework. Основная проблема заключалась в использовании параметров и их автоматизации. Во первых, мне не понравилась реализация событий изменения значения; во вторых, обнаружились баги при тестировании плагина в FL Studio и Cubase. FL Studio воспринимает все параметры как float-числа от 0 до 1, даже не используя специальную функцию из VST SDK с опкодом effGetParameterProperties (функция вызывается у плагина чтобы получить дополнительную информацию о параметре). В WDL-OL реализация закомментирована с пометкой:
Хотя, конечно же, в Cubase эта функция вызывается (Cubase — продукт компании Steinberg, которая и выпустила VST SDK). В начале я внес правки саму библиотеку, написал автору, чтобы он дал разрешение выложить исходники в репозиторий, либо сам создал репозиторий на GitHub’е. Но внятного ответа я так и не получил, поэтому решил сделать надстройку над либой — Syntage.Framework.dll. Помимо этого, в надстройке реализованы удобные классы для работы с UI, если вы хотите использовать WPF. Самое время скачать исходный код моего синтезатора и скомпилировать его. Правила использования моей надстройки просты: вместо StdPluginCommandStub юзаем SyntagePluginCommandStub, а свой плагин наследуем от SyntagePlugin. WPF UIВ VST плагине не обязательно должен быть графический интерфейс. Я видел много плагинов без UI (одни из них — mda). Большинство DAW (по крайней мере, Cubase и FL Studio) предоставят вам возможность управлять параметрами из сгенерированного ими UI. Автосгенерированный UI для моего синтезатора в FL Studio Чтобы ваш плагин был с UI, во-первых, у вас должен быть класс, реализующий IVstPluginEditor; во-вторых, нужно вернуть его инстанс в перегруженной функции CreateEditor вашего класса плагина (наследник SyntagePlugin). В своем синтезаторе Syntage я написал пару контролов — слайдер, крутилка (knob), клавиатура пианино — если вы хотите, можете их скопировать и использовать. UI-поток (thread)Я тестировал синтезатор в FL Studio и Cubase 5 и уверен, что, в других DAW будет тоже самое: UI плагина обрабатывается отдельным потоком. А это значит, что логики аудио и UI обрабатывается в независимых потоках. Это влечет все проблемы, или, последствия такого подхода: доступ к данным из разных потоков, критические данные, доступ к UI из другого потока. Для облегчения решения проблем я написал класс UIThread, который, по сути, является очередью команд. Если вы в какой-то момент хотите что-то сообщить/поменять/сделать в UI, а текущий код работает не в UI-потоке, то вы можете поставить на выполнение в очередь необходимую функцию: Здесь в очередь команд помещается анонимный метод, обновляющий нужные данные. При вызове ProcessIdle все накопившиеся в очереди команды будут выполнены. UIThread не решает всех проблем. При программировании осциллографа необходимо было обновлять UI по массиву семплов, который обрабатывался в другом потоке. Пришлось использовать мьютексы. Обзор архитектуры синтезатора SyntageПри написании синтезатора активно использовалось ООП; предлагаю вам познакомиться с получившейся архитектурой и использовать мой код. Вы можете сделать все по-своему, но в этих статьях придется терпеть мое видение) Класс PluginCommandStub нужен только чтобы создать и вернуть объект класса PluginController. PluginController предоставляет информацию о плагине, так же создает и владеет следующими компонентами: Чтобы обрабатывать аудиоданные есть интерфейсы IAudioChannel и IAudioStream. IAudioChannel предоставляет прямой доступ к массиву/буферу семплов (double[] Samples). IAudioStream содержит массив каналов. Представленные интерфейсы содержат удобные методы обработки всех семплов и каналов «скопом»: микширование каналов и потоков, применение метода к каждому семплу в отдельности и так далее. Для интерфейсов IAudioChannel и IAudioStream написаны реализации AudioChannel и AudioStream. Здесь важно запомнить следующую вещь: нельзя хранить ссылки на AudioStream и AudioChannel, если они являются внешними данными в функции. Суть в том, что размеры буферов могут меняться по ходу работы плагина, буферы постоянно переиспользуются — не выгодно постоянно перевыделять и копировать память. Если вам необходимо сохранить буфер для дальнейшего использования (уж не знаю, зачем) — копируйте его в свой буфер. IAudioStreamProvider является владельцем аудиопотоков, можно попросить создать поток функцией CreateAudioStream и вернуть поток для его удаления функцией ReleaseAudioStream. В каждый момент времени длина (длина массива семплов) всех аудиопотоков и каналов одинакова, технически она определяется хостом. В коде ее можно получить либо у самого IAudioChannel или IAudioStream (свойство Length), так же у «хозяина» IAudioStreamProvider (свойство CurrentStreamLenght). Класс AudioProcessor является «ядром» синтезатора — в нем-то и происходит синтез звука. Класс является наследником SyntageAudioProcessor, который, в свою очередь, реализует следующие интерфейсы: Синтез звука проходит длинную цепочку обработки: создание простой волны в осцилляторах, микширование звука с разных осцилляторов, последовательная обработка в эффектах. Логика создания и обработки звука была разделена на классы-компоненты для AudioProcessor. Каждый компонент является наследником класса SyntageAudioProcessorComponentWithParameters — содержит ссылку на AudioProcessor и возможность создавать параметры. В синтезаторе представлены следующие компоненты: Все этапы создания звука вы можете найти в функции Routing.Process и на следующей схеме: Звук одновременно создается на двух одинаковых осцилляторах (юзер может по-разному настроить их параметры). Для каждого осциллятора его звук проходит через огибающую. Два звука смешиваются в один, он проходит через фильтр частот, идет в эффект дисторшн, дилэй и клип. В мастере регулируется результирующая громкость звука. После мастера звук больше не модифицируется, но передается в осциллограф и блок LFO-модуляции (нужно для их внутренней логики). Далее будет рассмотрено программирование логики класса Oscillator, а в следующих статьях будут рассмотрены другие классы-компоненты. Настраиваем проект для создания плагина/инструментаПредлагаю вам использовать следующий скрипт (его нужно прописать в Project → Properties → Build Events → Post-build event command line, выполнение скрипта поставьте на On successful build): Отладка кодаПишем простой осцилляторЯ надеюсь, что вы прочитали главу «Обзор архитектуры синтезатора Syntage» — я буду объяснять все в терминах своей архитектуры. Самый простой звук — это чистый тон (синусоидальный сигнал, синус) определенной частоты. В природе вы вряд ли сможете услышать чистый тон. В жизни же можно услышать чистые тона в какой-нибудь электронике (и то, уверенности мало). Фурье сказал, что любой звук можно представить как одновременное звучание тонов разной частоты и громкости. Окраска звука характеризуется тембром — грубо говоря, описанием соотношения тонов в этом звуке (спектром). Мы пойдем схожим путем — будем генерировать простой сигнал, а затем воздействовать на него и менять с помощью эффектов. Какие выбрать «простые» сигналы? Очевидно, сигналы, спектр которых известен и хорошо изучен, которые легко обрабатывать. Возьмем четыре знаменитые типа сигналов: Периоды четырех типов сигналов: синус, треугольник, импульс/квадрат, пила. Чтобы синтезировать звуки, вы должны четко представлять себе исходное звучание этих простых сигналов. Синус имеет глухое и тихое звучание, остальные же — «острое» и громкое. Это связано с тем, что, в отличие от синуса, другие сигналы содержат большое количество других тонов (гармоник) в спектре. Наш генерируемый сигнал будет характеризоваться двумя параметрами: типом волны и частотой. По представленным картинкам напишем вспомогательный класс WaveGenerator, с методом GetTableSample, который будет возвращать значение амплитуды сигнала в зависимости от типа волны и времени (время должно быть в пределах от 0 до 1). Добавим так же в тип волны белый шум — он полезен в синтезе нестандартных звуков. Белый шум характеризуется тем, что спектральные составляющие равномерно распределены по всему диапазону частот. Функция NextDouble стандартного класса Random имеет равномерное распределение — таким образом, мы можем считать, что каждый сгенерированный семпл относится к некоторой гармонике. Соответственно, мы будем выбирать гармоники равномерно, получая белый шум. Нужно лишь сделать отображение результата функции из интервала [0,1] в интервал минимального и максимального значения амплитуды [-1,1]. Необходимо запросить у IAudioStreamProvider (для нас это будет родительский AudioProcessor) аудиопоток, и в каждом вызове функции Generate заполнять его сгенерированными семплами. Пока что у нашего осциллятора будет два параметра: Оформим все вышесказанное: Осталось написать функцию GenerateToneToStream. Каждый раз когда мы будем генерировать семплы сигнала, мы должны помнить о двух значениях: Оба параметра могут меняться во время работы плагина, поэтому не советую каким-либо образом их кешировать. Каждый вызов функции Generate() на вход плагину подается буфер конечной длины (длина определяется хостом, по времени она достаточно короткая) — звук генерируется «порциями». Мы должны запоминать, сколько времени прошло с момента начала генерирования волны, чтобы звук был «непрерывным». Пока что звук будем генерировать с момента старта плагина. Синхронизировать звук с нажатием клавиши будем в следующей статье. Семплы генерируются в цикле от 0 до [длина текущего буфера]. Частота дискретизации — число семплов в секунду. Время, которое проходит от начала одного семпла до другого равно timeDelta = 1/SampleRate. При частоте дискретизации 44100 Гц это очень маленькое время — 0.00002267573 секунды. Теперь мы можем знать, сколько времени в секундах прошло с момента старта до текущего семпла — заведем переменную _time и будем прибавлять к ней timeDelta каждую итерацию цикла. Чтобы воспользоваться функцией WaveGenerator.GetTableSample нужно знать относительное время от 0 до 1, где 1 — период волны. Зная нужную частоты волны, мы знаем и ее период — значение, обратное частоте. Нужное относительное время мы можем получить как дробную часть деления прошедшего времени на период волны. Пример: мы генерируем синус со знаменитой частотой 440 Гц. Из частоты находим период синуса: 1/440 = 0.00227272727 секунды. Если записать все символьно, получим: Оформим выкладки в виде отдельной функции WaveGenerator.GenerateNextSample и запишем итоговую функцию GenerateToneToStream. Обычно, в параметры осциллятора добавляют следующие: Данные параметры есть в реализованном мною синтезаторе — вы можете самостоятельно их реализовать. Осталось реализовать классы AudioProcessor (будет создавать осциллятор и вызывать у него метод Generate) и PluginController (создает AudioProcessor). В следующей статье я расскажу как написать ADSR-огибающую.
|