Audio recording requires audio inputs что делать?

Содержание

Что такое буфер звуковой карты. Настройки Audio в Fl Studio

Audio recording requires audio inputs что делать?

Многие начинающие музыканты работающие со студийными программами как fl studio, поначалу не знают, что такое буфер звуковой карты и настройки audio в Fl Studio. Хотя эти знания могут им помочь в дальнейшем. Так как, если у вас компьютер слабенький, а проект становиться больше компьютер начинает притормаживать во время воспроизведения ваших треков в секвенсоре из-за нехватки ресурсов.

Обычно это происходит когда мы используем много инструментов и vst плагинов, где слабенькому компьютеру уже становиться тяжело обрабатывать звуковую информацию на выходе. И именно поэтому эти настройки нам нужны, для снижения нагрузки на компьютер.

Что такое буфер звуковой карты?

Буфер звуковой карты – это определенное количество дамп памяти, где Fl Studio может обрабатывать звук, до того как он достигнет выходного сигнала вашей звуковой карты.

При меньших значениях звук будет обрабатываться быстрее и с низкой задержкой обработки сигналов. При таких условиях процессор загружается больше и возможны ошибки (опустошения), когда будет происходить обработка сигнала, т.е. воспроизведение трека.

Настройки Audio в Fl Studio

Чтобы открыть настройки audio в fl studio просто нажмите F10 или же через меню OPTION – Audio settings. И во вкладке Input / output можно выбрать звуковую карту. Которая будет в дальнейшем обрабатывать звук. При выборе звуковой карты вы можете заметить изменения в настройках окна.

При работе в fl studio используйте лучше драйвер asio4all. Он меньше нагружает ваш компьютер. Если у Вас он не установлен, то можете скачать его с официального сайта www.asio4all.org. О том как быстро настроить звуковую карту можете почитать тут.

  • Status (статус) – показывает текущее состояние входов и выходов звукового драйвера. А также отображает итоговую задержку выхода, включая плагины.
  • Sample rate (Hz) – устанавливает частоту дискретизации при воспроизведении звука через микшер. Чтобы не было проблем со старыми плагинами оставьте этот показатель по умолчанию в 44100 Гц.
  • Auto close – эта опция позволяет устранить проблемы при использовании совместно с Fl Studio других аудио программ. В основном проблемы могут появляться когда выбран звуковой драйвер asio4all. Но если появились глюки со звуком включите эту опцию и перезапустите все программы которые используют аудио поток. После этого нужно свернуть fl studio чтобы не было проблем со звуком.

Опции asio4all

  • Buffer length (размер буфера) – этот ползунок позволяет изменить длину буфера в широком диапазоне. При высоких значениях система будет работать стабильнее и без ошибок. Вдобавок будет использовано меньше ресурсов центрального процессора.  В случае, какой-нибудь ошибки при проигрывании будут слышны хрипы и посторонние звуки.
  • Show ASIO Panel – открывает настройки буферизации, выбора звуковой карты на выходе и отдельные настройки драйвера. По возможности используйте размер буфера в пределах 10 -20 мс.
  • Mix in buffer switch – эта опция позволяет добиться на некоторых звуковых картах меньшей задержки.
  • Triple buffer – включите тройную буферизацию если вам требуется больше ресурсов для проекта. Эта опция увеличивает задержку вдвое и может вызвать крах (зависание) программы из за несовместимости с некоторыми плагинами.

Опции первичного звукового драйвера

  • Buffer length (размер буфера) – этот ползунок позволяет изменить длину буфера в широком диапазоне. При высоких значениях система будет работать стабильнее и без ошибок. Вдобавок будет использовано меньше ресурсов центрального процессора.  В случае, какой-нибудь ошибки при проигрывании будут слышны хрипы и посторонние звуки.

По возможности отрегулируйте этот показатель на 20-40 мс, если позволяет компьютер. Если же у Вас при воспроизведении проекта появился треск, то увеличите этот показатель пока он не пропадет.

Также запомните, что возможность работы без ошибок (опустошения) зависит от мощности процессора, количества оперативной памяти, звуковой карты и выбранной длины буфера значение и сложности проекта.

Перевод мс (миллисекунд) в сэмплы: 1 мс = 44 samples (образцов) на частоте 44100 Гц или 48 samples образцов на частоте 48000 Гц.

  • Offset – при увеличении показателя Offset  совместимость свойств драйвера с такими операционными системами как Windows Vista увеличивается. 0% – выкл.
  • Use polling – при включении этой опции можно значительно уменьшить буфер без его опустошения. Заметьте что на некоторых компьютерах эффект может быть противоположный.
  • Use hardware buffer – позволяют использовать аппаратный звуковой буфер поддерживаемый звуковой картой.
  • Use 32-Bit Buffer – позволяет использовать буфер в 32-бит с плавающей точкой. Будет работать только под Windows XP или выше.

Поток смешивания звука

  • Priority – определяет приоритет для смешивания звукового потока. Настройте этот параметр взависимости от зависания программы.
    • Higher – выделяет максимальные ресурсы для смешивания звукового потока.
    • High – выделяет высокие ресурсы процессора.
    • Normal – используется средние ресурсы процессора. Уменьшает риск зависания.
  • Safe overloads – создает безопасные перегрузки. При включении этой опции при перегрузках процессор не будет полностью загружаться, а будет оставлять часть ресурсов графического процессора для дальнейшего взаимодействия с программой уменьшая риск зависания.
  • Underruns – это счетчик который показывает общее количество опустошений.

    Опустошение возникает когда вы слышите треск при воспроизведении так как в буфере заканчиваются звуковые данные.

Выход плагина

Эти настройки видимы только при использовании FL Studio как VSTi/DXi плагина или при подключении в качестве ReWire клиента.

  • Slave Tempo – при включении FL Studio будет синхронизироваться с темпом основной программы.
  • Record Automation – в рабочем режиме дистанционное управление сообщениями MIDI, от основной программы будут записаны во время сессий записи.

Отслеживание воспроизведения

При использовании этих настроек можно решить проблему дрожания или неправильной позиции маркера воспроизведения, а также решить проблемы выравнивания в плейлисте записанного звука.

  • Playback tracking source – что будет отвечать за источник отслеживания при воспроизведении:
    • Driver – по умолчанию позицию воспроизведения использует звуковой драйвер.
    • Hybrid – гибрид позиции. Этот вариант лучше подойдет для устранения дрожания при использовании “первичного звукового драйвера”.
    • Mixer – применяется позиция микшера. Избегайте этого варианта, но если вы используете задержку буфера в 10 мс (441 сэмплов) или меньше, то он может решить проблемы синхронизации звука/видео при использовании некоторых аудио-интерфейсов.
  • Offset – смещение позиции воспроизведения, используемой в FL Studio. В случае если драйвер аудио-интерфейса информирует собственную позицию не должным образом, и в таком случае записанные ноты и звук не станут находится там, где они обязаны находиться. И в случае если вы убеждены, что данное обусловлено не глобальным квантованием входа путём настройки массовой привязки и отнюдь не компенсацией задержки через настройки в Меню микшера >Disk recording >Latency compensation, то применяйте этот ползунок, для того чтобы компенсировать звук к позиции воспроизведения в сторону утвердительного либо отрицательного смещения.

В прежних версиях FL Studio эта опция называлась Use Mixer as Playback Position.

CPU (процессор)

Данные опции необходимы с целью уменьшения перегрузки на процессор и повышения производительности FL Studio на вашем пк.

  • Multithreaded generator processing – снижает нагрузку на процессор путем воздействия нескольких ядер процессора при использовании генераторов.
  • Multithreaded mixer processing – снижает нагрузку на процессор путем воздействия нескольких ядер процессора в микшере программы.
  • Smart disable – все обще выключает как инструменты так и эффекты, если они неактивны, отчего понижает нагрузку на процессор. Примечание: данная функция функционирует в связке с любым плагином, которая имеет переключатель Smart disable. Данная функция будет функционировать только лишь в тех оболочках, в которых включён параметр Smart Disable. Задача данного параметра в опциях звука это массовое включение или отключение Smart Disable во всех плагинах. И для того чтобы использовать “автоматическое отключение” во всех плагинах, вам нужно применить команду через Tools >Macros >Switch smart disable for all plugins. После этого в оболочке любого плагина будет включена опция Smart disable. В случае если “автоматическое отключение” вызывает затруднения с некоторыми плагинами, то в таком случае данную функцию можно отключить для единичных плагинов, через функции Smart disable в меню оболочки. Примечание 2: Умное отключение активно лишь при воспроизведении, при рендеринге оно на время выключается.
  • Align tick lengths – способен снизить нагрузку на процессор и увеличить эффективность определенных сторонних плагинов, которые применяют технологию Align tick lengths. Тик считается самой маленькой внутренней единицей времени употребляемой с целью секвенирования автоматизаций и нотных событий (PPQ подсчитывает число тиков (импульсов), к примеру в четверти ноты). Если возникают трудности с плагинами, то тогда включите.

На заметку: некоторые из этих настроек могут вызвать трудности в плагинах. Это будет связано с отсутствием поддержки стандартов VST в самих плагинах.

Mixer (микшер)

  • Resampling (передискретизация) – это процесс создания плавных изменений в сэмпловых данных, когда система “придумывает” промежуточные уровни громкости между любыми двумя известными точками сэмплов. Это необходимо только тогда, когда происходит транспонирование сэмпла от его первоначальной высоты тона, чтобы избежать шума “квантования” и/или “алиасинга“. Преимущество более высокого качества интерполяции будет применяться только к транспонированным звукам. Это видео раскрывает понятия алиасинга и интерполяция более подробно. Есть два независимых места, где могут быть установлены методы интерполяции. Здесь в Audio Settings (настройках звука) метод интерполяции влияет на “живое” качество звука (и на нагрузку процессора, если ваш проект содержит транспонированные Sampler(ы) и аудио клипы). Другое место где находятся настройки интерполяции, это диалоговое окно экспорта проекта, настройки в этом окне влияют на качество звукового файла (и время рендеринга). Опции одинаковые для обоих мест, они таковы:
    • Linear – линейная интерполяция гарантирует наиболее низкую загрузку процессора с единым линейным усреднением среди сэмплов, но это может создавать алиасинг (высокочастотные шумы), в случае если сэмплы транспонируются вдали от собственной начальной высоты тона. С целью многих ситуаций мы советуем линейную установку.
    • 6-point Hermite – это самый быстрый метод интерполяции и поэтому подходит для воспроизведения в режиме реального времени, обеспечивая превосходное качество “линейной” интерполяции. Если у вас мощный компьютер, вы можете использовать 64-point sinc для рискованных сессий микширования.
    • 64, 128, 256, 512-point Sinc – методы которые позволяют настраивать более высокое качество интерполяции, что увеличивает нагрузку на процессор. Что находиться выше 6-point Hermite не подойдет для живого воспроизведения, может только когда появятся 32х ядерные и 10ГГц процессоры. Но вы спросите зачем тогда они нужны? Это нужно для более высокой интерполяции. Кому-то может пригодиться.
  • Preview Mixer Track – позволяет выбрать канал в микшере для прослушивания звуковых файлов.

    По умолчанию звук проходит через мастер канал.

  • Reset Plugins on Transport – сбрасывает плагины при транспортных командах таких как старт, стоп. Отключите это опцию чтобы было меньше глюков.
  • Play truncated notes – будут обрезаться ноты при транспортном перемещении во время воспроизведения.

 12,973   10 

Источник: https://bigsong.ru/kurs-fl-studio/rabota-v-fl-studio/tchto-takoe-bufer-zvukovoy-kart-direct-sound-nastroyki.html

Запись звука в FL Studio

Audio recording requires audio inputs что делать?

Запись звука в FL Studio можно выполнить двумя способами. Но перед тем как перейти к этим способам записи звука в FL Studio, давайте рассмотрим подготовительные операции, которые необходимо выполнить перед записью.

Для того чтобы иметь возможность записывать звук в FL Studio необходимо:

— использовать версию FL Studio не ниже Producer Edition;

— использовать ASIO драйвер (Options – Audio settings);

— выбрать режим Audio в списке фильтра Recording filter, в том случае если Вы собираетесь записывать звук в Playlist. Этот список можно увидеть, если навести курсор мыши на клавишу записи и нажать правую клавишу мыши;

— подключить источник записи к входу звуковой карты (например, микрофон).

После того как все подготовительные операции выполнены, можно переходить к записи.

Запись звука в FL Studio можно выполнить непосредственно в Playlist или в редактор Edison. Рассмотрим оба варианта.

Запись звука в Playlist

1. Выбираем канал микшера, через который будет происходить запись.

2. В поле Audio input source выбираем вход, с которого будет поступать сигнал.

Список выбора входа разделён на две группы – stereo и mono. Выбрав один из вариантов в группе stereo, Вы можете записать звук в стереоформате.

Например, у Вас есть два микрофона, и Вы хотите записать голос в стерео, для этого один микрофон Вы подключаете к первому входу Input 1, а другой микрофон – ко второму Input 2 и в списке входов выбираете Input 1 – Input 2.

Таким образом, сигнал через Input 1 будет записан в левый канал (первый микрофон), а сигнал через Input 2 – в правый канал (второй микрофон). Если же у Вас в наличии только один микрофон, то выбирайте соответствующий mono вход (Input 1 или Input 2). Так записанный сигнал будет одинаковым и в левом и в правом каналах.

3. Нажимаем клавишу One-click audio recording на одной из панелей FL Studio и выбираем пункт Into playlist as an audio clip.

После отсчёта метронома начнётся запись.

4. Нажимаем клавишу Stop на транспортной панели.

После этих действий в плейлисте на первом незанятом канале появится аудиоклип с нашей записью. При настройках по умолчанию аудиоклипы сохраняются на жёстком диске в директории FL Studio – Data – Patches – Recorder (папка Recorder в меню браузера FL Studio).

Ещё один способ записи в Playlist

1. Выбираем канал микшера, через который будет происходить запись.

2. В поле Audio input source выбираем вход, с которого будет поступать сигнал.

3. Нажимаем клавишу записи на транспортной панели.

Появляется окно выбора материала, который необходимо записывать.

Если выбрать пункт Audio, into the playlist as an audio clip, то запись будет выполняться как в первом случае.

Выберем пункт Everything (записывать всё).

4. Нажимаем клавишу Play на транспортной панели и записываем звук с внешнего источника.

5. Нажимаем клавишу Stop на транспортной панели.

Запись выполнена.

Дополнительные настройки

Место хранения аудиоклипов:

Для того чтобы сохранять записанные аудио файлы в пользовательскую папку необходимо нажать правой кнопкой мыши на клавишу Arm disk recording на том канале микшера, через который будет выполняться запись и в открывшемся окне выбрать необходимую директорию.

Опции записи:

Эти опции можно найти в меню микшера, пункт Disk recording.

Auto-unarm – автоматическое отключение опции Arm disk recording после выполнения записи (выключение режима записи на канале микшера);

Auto-create audio clips – автоматически создавать аудиоклип в плейлисте после окончания записи. Если опция отключена, то записанный сигнал будет сохранён на жесткий диск, но не будет помещён в Playlist;

Latency compensation – компенсация задержки. С помощью этой опции можно избавиться от задержки равной длине буфера звуковой карты;

32-Bit float recording – сохранение записанного материала в формате 32 бит. Если эта опция отключена, то звук будет записан в формате 16 бит.

Запись звука в Edison

1. Выбираем канал микшера, через который будет происходить запись.

2. В поле Audio input source выбираем вход, с которого будет поступать сигнал.

3. Вешаем Edison в разрыв выбранного канала микшера.

4. Активируем запись в микшере (нажимаем клавишу Record).

5. Нажимаем клавишу Stop в Edison и завершаем запись.

6. Переносим аудиоклип в Playlist, для этого нажимаем клавишу Send to playlist as audio clip / to channel или сохраняем записанный материал на жёсткий диск (выбираем клавишу с изображение дискеты).

Опции записи в Edison:

Edison может записывать аудио разными методами. Изменить метод записи можно в окне When / what to record.

Now – мгновенная запись. Запись начнётся сразу после нажатия клавиши Record;

On input – запись при получении сигнала. Запись начнётся в тот момент, когда на вход Edison поступит сигнал;

Input – запись при наличии сигнала. Запись выполняется только когда на вход поступает сигнал. Если сигнал прерван, то запись останавливается;

On play – запись после нажатия клавиши Play. Запись начнётся после того как будет нажата клавиша Play на транспортной панели программы.

Edison – великолепный аудиоредактор. Советую изучить его более подробно.

Смотрите видеоурок по записи звука в FL Studio.

Источник: https://fierymusic.ru/uroki-po-sozdaniu-muzyki/uroki-fl-studio/zapis-zvuka-v-fl-studio

How to Record Vocals in FL Studio

Audio recording requires audio inputs что делать?

Vocals can add an organic touch to any track, and can really drive home the idea and message your song sends. Some tracks will sound empty without them, something is missing. Vocal samples are one solution, but sometimes spending hours finding the right fit or the right lyrics just isn’t practical. In this tutorial, you’ll learn how to record vocals in FL Studio to give your track a unique sound.

Note: You must have FL Studio Producer Edition or higher to record audio and vocals.

Step 1: Buy a Microphone & Accessories

If you already have all the hardware you need, just skip to Step 2. If not, there are tons of great microphones and accessories online. Much of your selection will depend on how much you can afford, and how much you’re willing to pay for high-quality recordings.

Full Disclosure: As an Amazon Associate, I earn from qualifying purchases. Buying through any of the links below will earn me a small commission at no extra charge to you.

Mic Selection

For those of us on a budget and wanting versatility for use in and the studio:

  • Shure SM57 or SM58
  • AKG D5
  • Sennheiser E835

If you’re looking for a solid budget studio mic:

  • Audio-Technica AT2020 or AT2035
  • MXL 990 or MXL 770
  • Rode NT1 or NT1A

If you have some extra cash laying around that you can devote to an entry-level condenser, check out our full list. If you’re a rapper, we have some suggestions for you, too.

Be considerate of whether or not your selection will require a phantom power source. Condenser mics usually do. Most modern audio interfaces, even the entry-level ones, will most ly have phantom power built in.

Boom & Stand Selection

Next, you’ll need a boom or stand to hold your mic. Again, there are loads of selections online. I purchased a pretty cheap mic boom from Neewer. It clamps to my desk and is very easy to set up and adjust. There are also some high-end models out there the RODE PSA1. Make sure that your desk thickness is less than the maximum clamp opening depth, or the boom clamp won’t fit.

My gear for recording vocals. This is the MXL 990 Blizzard Edition painted matte black, Neewer scissor boom mic stand, Auphonix pop filter, and On-Stage shock mount.

Headphone Selection

A set of headphones may also be necessary for the vocalist to wear during recording. If you’re recording and monitoring in the same room, these will allow the vocalist to hear the track during recording while preventing the track from being recorded by the mic. The Sony MDR-7506 is my personal choice, but cheaper alternatives will also do if you’ll just be using these to record vocals.

Other Accessories

You will need an XLR cable to connect your mic to your audio interface, unless your mic uses a USB connection or you have an XLR to USB adapter. It is also worth investing in a pop filter. Pop filters stop pops in your recordings that are caused by fast-moving air running into your mics internal components. All of these decisions will depend on what degree of quality you’re willing to pay for for your vocals.

OK, now that we’ve covered everything we need, lets look at Step 2.

Step 2: Audio Driver Settings

To record vocals in FL Studio 12, we need to make sure we are using an ASIO driver. To access your driver settings, just go to Options, then Audio settings, and under Input/Output devices, choose an ASIO driver. If you don’t have an ASIO driver, you can download one here.

Latency

Latency is the time it takes for the live voice coming from your mic input and/or the data coming from FL Studio to be processed by your computer. You want to make sure that latency is as low as possible. A very high latency will lead to vocals that are sync with the rest of the track, and can make recording difficult for the vocalist when recording over a live mix.

You can reduce latency by reducing the audio device buffer size. A rule of thumb is under 11 ms for latency. If you cannot achieve this without buffer underruns, it may be time for a faster processor.

Another way to help with latency issues is by turning on Latency compensation in your Mixer options under Disc recording. This removes your audio input device’s buffer latency time from the beginning your recorded audio clips so your vocals sync up with the rest of your track.

Step 3: Set Recording Filter to Record Audio

Right-click on the Record button in your top toolbar and make sure the Audio option is checked. This will allow you to record directly into the Playlist.

Step 4: Connect Your Mic & Choose a Mixer Track

Once your mic is connected, you need to tell FL Studio where the mic input is coming from and what to do with it. Choose any Mixer track for your audio to come from, just not the Master track. At the top of the signal processing chain, set your Audio input source to the device your mic is connected to.

There should be two sections, one for stereo and one for mono. Stereo will record in one stereo track (left or right) unless you’re using a stereo mic, and both mono options will just record copies of the same signal in mono for both left and right.

In the vocoder setup below, the modulator is the mic input panned hard left, and the carrier is a synth preset panned hard right.

Step 5: Record Into the Playlist

There are actually two ways to record vocals in FL Studio. The first way is into the Playlist as an audio clip. The clip will also be present in the Channel rack. This method saves a file of the recording on your computer in the Recorded folder in the Browser/plugin picker by default.

Arm the Mixer Track & Set the Save Path

First, we want to make sure the Mixer track that you have your mic input routed to is armed for recording. When you chose your mic input, FL Studio should have auto-armed the Mixer track. You can check by looking at the Mixer track and making sure the red Arm disk recording button is lit up. Just click it to toggle on and off. You can also right-click to choose a different folder directory to save your audio clips to.

Adjust Mic Input Gain

This is where we adjust the mic input peak level to -10 dBFS. We can do this by adding a Fruity Balance to the top of the mic input Mixer track signal processing chain. We’ll run through this same process in the next section on recording with Edison.

Start Recording

Next, click the Record audio button at the top main toolbar, and hit Play. You can now start recording your vocals!

When you’re done, just click Pause or Stop and the recorded audio clip will appear in your Channel rack and Playlist too, if you’ve recorded in Song mode.

Alternative Step 5: Record Into Edison

The second way we can record vocals in FL Studio is with Edison in the Mixer. Edison is an audio editing and recording plugin by Image-Line, and comes with FL Studio Producer Edition and up. It allows for more control when recording and is better suited for sampling than recording into the Playlist.

Add Edison to Mic Input Track

First, add an Edison to your mic input Mixer track. Make sure it appears above any effects you have added on to the track. This will ensure that you have a “dry” recording, which will allow for more control and flexibility in your mix later on.

Edison should appear above effects in your signal processing chain. To reorder, hover over a slot and scroll with your mouse wheel.

Edit & Send to Playlist/Channel Rack

From here, you can edit the recorded waveform, it’s volume, panning, and stereo separation envelopes (bottom left), normalize, add EQ, slice, etc. Once you have the waveform sounding the way you want, just click the Send to playlist as audio clip/to channel button at the top right in the Edison toolbar. Now, your clip is in the Playlist and Channel rack.

More Vocal Recording Tips

  • Recording vocals with effects applied (wet) is not recommended. You can’t remove effects that you’ve recorded along with the vocals. You can always add effects to your vocal audio clips afterwards.
  • If you are monitoring and recording in the same room, remember to make sure your studio monitors are off before recording. You want to isolate the vocalist’s voice as much as possible during recording. Closed-back headphones and a good acoustic treatment setup will really help here too.
  • Aim for -10 dBFS peak level when recording vocals. Sometimes, shooting for -12 dBFS is ideal because vocalists will tend to sing louder than normal when recording.

Источник: https://www.synapticsound.com/record-vocals-fl-studio/

Recorder Component

Audio recording requires audio inputs что делать?

The Recorder is the component that will transmit the audio stream.Using this component you choose what to stream (Input Audio Source), how to stream it (Audio Quality), when to start and stop transmission (Transmission Toggles) and to whom we transmit (Receiver Target).Also the Recorder requires initialization.

Input Audio Source

The Recorder supports various types of input audio feed to stream.The most obvious one is the microphone which is used for voice chat.However, the Recorder supports two other types of input sources.

Back To Top

Microphone

To use the microphone as an input source type for the voice stream to be transmitted by the Recorder, simply set the Recorder.SourceType to Recorder.InputSourceType.Microphone.

Back To Top

Microphone Selection

Photon offers two options to choose from for which microphone API to use.Each Recorder can have its own type of microphone input device that can be set using Recorder.MicrophoneType.The two different values are:

Unity:

By default, we make use of Unity's Microphone API on all platforms.Unity exposes all available audio input devices using Microphone.devices array of strings.The microphone device can be identified using its string name or its index in that array.By default, the first element of that array will be used.If you want to set another device explicitly, do it using Recorder.UnityMicrophoneDevice.

To use Unity's Microphone API simply set the Recorder.MicrophoneType to Recorder.MicType.Unity.

Photon:

Unity is great for making it easier to target multiple platforms using almost the same code base.However, in some ways, Unity's Microphone API is limited or present some issues here and there.That is why we introduced our own way of directly interacting with audio input devices and bypassing Unity's Microphone API.One of the major reasons for this is to make use of devices' hardware built-in echo cancellation.We have implemented native plugins for four major platforms: Android, iOS, Windows and macOS.

However, enumerating the list of available microphones is available only for macOS and Windows.On Android and iOS we use the default audio input device used by the system.You can check the list of available «Photon microphones» using Recorder.PhotonMicrophoneEnumerator as follows:

var enumerator = Recorder.PhotonMicrophoneEnumerator;if (enumerator.IsSupported) { for (int i = 0; i < enumerator.Count; i++) { Debug.LogFormat("PhotonMicrophone Index={0} ID={1} Name={2}", i, enumerator.IDAtIndex(i), enumerator.NameAtIndex(i)); }}

You can set a microphone using Recorder.PhotonMicrophoneDeviceId.

To use Photon's Microphone API simply set the Recorder.MicrophoneType to Recorder.MicType.Photon.

Back To Top

Unity Editor Consideration

While the choice of the microphone API (Unity or Photon) persists between Unity Editor and the output build, the choice of the actual device does not.The list of the microphone devices available in the Unity Editor may not be the same on the machine where the build will be running.The build can be running on a different platform with a different system and with different audio input devices.That is why, if needed, you can switch from a default microphone to another one, if available, explicitly via code at runtime from the build client.

Back To Top

Microphone Access: Recording And Muting

By default, the Recorder component will start recording automatically once initialized.You can disable this by setting Recorder.AutoStart to false.

If you are looking for options to mute the microphone 'locally' ('self-muting'), you can use either Recorder.TransmitEnabled or Recorder.IsRecording.

Recorder.IsRecording can be set at runtime (play mode) once the recorder is initialized.

So if you want to stop recording and «release» the microphone you can set Recorder.IsRecording to false.Set it back to true to resume recording.

By design, when recording is disabled the audio stream is completely gone.

Back To Top

Streaming Audio Clips

This option was introduced to test Photon Voice transmission.However, you may use it for other purposes.In order to broadcast an audio clip to other players joined to the same room, you need to assign an audio media file supported by Unity to Recorder.AudioClip.This can be done by a drag and drop to the Inspector from Unity Editor.If you want the audio clip to be replayed every time make sure Recorder.LoopAudioClip is set to true or tick «Loop» from Unity Editor for the Recorder's inspector.

Back To Top

Custom Factory

Photon Recorder allows you to have your own custom audio source for whatever use case you have in mind.To know more, read «How to use custom audio source?».

Back To Top

Audio Quality

Codec parameters are the main factor here:

  • SamplingRate: a frequency of how many times the audio is measured per second.Generally, this defines the audio quality you want.Possible values are: 8, 12, 16, 24 and 48 kHz.Default is 24 kHz.
  • FrameDuration: outgoing audio stream encoder delay in milliseconds (buffer size in terms of time).Possible values are 5, 10, 20, 40, 80 and 120 ms.Default is 20 ms.
  • Bitrate: the amount of data (the number of bits) that are processed over a certain amount of time (second).Generally, this defines the compression quality.Default value is 30000 b/s.

Back To Top

Other Stream Settings

  • Encrypt: if true, all outgoing audio streams will be encrypted.Default is false.Read more about «Encryption» here.
  • ReliableMode: if true, all outgoing audio streams will be in reliable mode.Default is false.

Back To Top

Transmission Toggles

You can toggle transmission using Recorder.TransmitEnabled.There is also VoiceDetection that can be used to make sure we don't transmit useless background noise.

Back To Top

Push-to-Talk

It is easy to have a push-to-talk feature with Photon Voice.You need to manually toggle voice recording and transmission.It's turning microphone mute on and off.To start push-to-talk just set Recorder.TransmitEnabled to true.To stop it just set the value back to false.You can achieve this by binding the property to a user input (UI button or keyboard shortcut).

Back To Top

Voice Detection

Voice detection is an optional feature that will filter recorded sound and transmits only when a predefined threshold of signal level is exceeded.This means that voice transmission is automatically paused when you stop speaking and it is resumed when you start talking.This will also help you avoid sending useless noise and thus reduce traffic.

The default value of VoiceDetectionThreshold is 0,01.It is the recommended value for common environments as a result of experiments with voice detection calibration and noise level measurements.

Back To Top

Voice Calibration

If you still experience issues when recording your voice even with voice detection is on, you may need voice calibration.Photon Voice offers an auto calibration mode which is limited in time.To start the calibration mode you should call Recorder.VoiceDetectorCalibrate(period).The default calibration period is 2000 milliseconds but you can always change it.Using calibration, Photon Voice automatically adjusts silence and loudness thresholds.

Back To Top

Receiver Target

This is done via Audio Groups.Optionally you could receive your own streams if DebugEchoMode is enabled.

Back To Top

Interest Groups

Photon Voice is not for broadcast only.You can offer your players the possibility to have multiple conversations going on at the same time without interfering with each other.This can be done using «Interest Groups».An «Interest Group» is identified by a number (byte).You can subscribe and unsubscribe from multiple groups.However, you can only transmit audio to one group at a time.

By default, the recorder's interest group is set to 0 : each player can talk to everyone else.To set the target interest group, set Recorder.InterestGroup.

You can select more than one group you want to listen to.By default, all voice clients are subscribed to group 0 only.To update the list of groups you're registered to, you can use the following method:

VoiceConnection.Client.OpChangeGroups(byte[] groupsToRemove, byte[] groupsToAdd);

You should take into consideration the following notes when changing audio groups:

  • It can be done only when joined to a «voice room».
  • If you don't want to add or remove any group pass a null in the respective parameter.
  • If you want to add or remove all existing groups pass an empty array (byte[0]) in the respective parameter.
  • You cannot unsubscribe from the default audio group (0).

Audio groups can be combined with Push-to-Talk to obtain nice features for your game.

Back To Top

Debug Echo Mode

This mode, when enabled, allows audio streams transmitted by local Recorder to be received by the same voice client.This is useful for debugging purposes, some use cases:

  • testing audio quality, delays or setup with one actor only joined to a room, especially during the early development phase
  • testing one's microphone or speakers
  • other scenarios that involve the need for own echo or true broadcast

Debug Echo Mode works only with Interest Group 0.

Back To Top

Primary Recorder

Since in most cases, a single Recorder component is used, we have provided a shortcut for a single default Recorder called «Primary Recorder» which can be accessed from VoiceConnection.PrimaryRecorder (or PhotonVoiceNetwork.PrimaryRecorder).You can set it in the Unity Editor or via code.

Back To Top

Initialization

In order to work the Recorder needs to be initialized.The PrimaryRecorder is automatically initialized.Also in PUN integration, Recorders are automatically initialized using PhotonVoiceView.In other use cases, or if the automatic initialization fails somehow, you can manually initialize a Recorder using one of two methods:

  • VoiceConnection.InitRecorder(Recorder) (or PhotonVoiceNetwork.InitRecorder(Recorder))
  • Recorder.Init(VoiceConnection)

By default, the Recorder will automatically start recording when initialized.To disable this behaviour and manually start recording using Recorder.StartRecording() after initialization, set Recorder.AutoStart to false.You can stop recording using Recorder.StopRecording().

Back To Top

Restart

You need to set the Recorder settings you want before recording is started, otherwise you will need to restart using Recorder.RestartRecording().

To know if the Recorder needs to be restarted, you can check the 'IsDirty' flag Recorder.RequiresRestart.

Here is the list of things that require restart when changed in order for them to take effect:

  • Recorder.UserData
  • Recorder.AudioSourceFactory
  • Recorder.UnityMicrophoneDevice
  • Recorder.PhotonMicrophoneDeviceId
  • Recorder.Source
  • Recorder.MicrophoneType
  • Recorder.TypeConvert
  • Recorder.AudioClip
  • Recorder.SamplingRate
  • Recorder.FrameDuration
  • Recorder.Bitrate

Here is the list of things that do not require restart and will take effect immediately if the transmission is enabled:

  • Recorder.TransmitEnabled
  • Recorder.Encrypt
  • Recorder.ReliableMode
  • Recorder.DebugEchoMode
  • Recorder.VoiceDetection
  • Recorder.VoiceDetectionThreshold
  • Recorder.VoiceDetectionDelayMs
  • Recorder.AudioGroup
  • Recorder.LoopAudioClip (if conditions are met)

Back To Top

React On System Changes

Sometimes if you add or remove input or output audio device(s) from the system settings or if you switch the default one, Photon Voice can stop working properly.Since Photon Voice 2.5 we have introduced a new property Recorder.ReactOnSystemChanges that, once enabled, will make the Recorder automatically reinitializes itself to recover from such system changes.The default value is false for backward compatibility.You can set this value in edit mode or in play mode.

By default, the Recorder will restart recording only when the device being used is no longer available or valid, in some cases you may need to force restarts even if the device in use did not change.To enable this set Recorder.SkipDeviceChangeChecks to true.

Back To Top

Stop Recording When Paused

There is an option to stop recording when the application is paused (e.g. moves to the background or loses focus) and start again when the application is unpaused.To enable this behaviour set Recorder.StopRecordingWhenPaused to true.

Back To Top

Record Only When Enabled

If you would to use Unity components' enabled / disabled concept for the Recorder component, you could make sure that the Recorder works only when enabled and active in the hierarchy by setting Recorder.RecordOnlyWhenEnabled to true.So when you enable or disable the Recorder from the Inspector in the Unity Editor or by code, the recording could start or stop.

To Document Top

Источник: https://doc.photonengine.com/en-us/voice/v2/getting-started/recorder

Configuring Audio Policies | Android Open Source Project

Audio recording requires audio inputs что делать?

The Android 10 release includes a significant refactoring of the audio policy manager to provide more flexibility to support complex automotive use cases:

  • OEM-specific routing strategies.
  • Customizable volume groups for groups of legacy stream types using the same volume curves.
  • Routing strategies declared by the audio policy engine instead of being hard coded.
  • Volume curves and groups managed by the audio policy engine.
  • Internal refactoring preparing for a future split between common code and configurable codeand offering richer audio device management. For example, the use of all device properties not justits type in policy rules.

Android 7.0 introduced a audio policy configuration file format (XML) fordescribing your audio topology.

Previous Android releases required usingdevice///audio/audio_policy.confto declare the audio devices present on your product (you can see an example ofthis file for the Galaxy Nexus audio hardware indevice/samsung/tuna/audio/audio_policy.conf). However, CONF is asimple, proprietary format that is too limited to describe complex topologies forverticals televisions and automobiles.

Android 7.0 deprecates audio_policy.conf and adds supportfor defining an audio topology using an XML file format that's morehuman-readable, has a wide range of editing and parsing tools, and is flexibleenough to describe complex audio topologies.

Note: Android 7.0 preserves support for usingaudio_policy.conf; this legacy format is used by default. To usethe XML file format, include the build option USE_XML_AUDIO_POLICY_CONF:= 1 in the device makefile.

Advantages of the XML format

As in the CONF file, the XML file enables defining the number and typesof output and input stream profiles, devices usable for playback and capture, andaudio attributes. In addition, the XML format offers the following enhancements:

  • In Android 10, more than one active recording app isallowed simultaneously.
    • Recording start is never rejected due to a concurrency situation.
    • The registerAudioRecordingCallback(AudioManager.AudioRecordingCallback cb) callback notifies clients of capture path changes.
  • In the following situations, a client gets silent audio samples:
    • A privacy-sensitive use case (for example, VOICE_COMMUNICATION) is active.
    • The client doesn't have a foreground service or foreground UI.
    • Specials roles are recognized by the policy:
      • Accessibility service: Can record even if a privacy-sensitive use case is active.
      • Assistant: Considered privacy sensitive if the UI is on top.
  • Audio profiles have a structure similar to HDMI simple audio descriptors, enabling a differentset of sampling rates/channel masks for each audio format.
  • There are explicit definitions for all possible connections between devices and streams.Previously, an implicit rule made it possible to connect all devices attached to the same HALmodule, preventing the audio policy from controlling connections requested with audio patchAPIs. In the XML format, the topology description defines connection limitations.
  • Support for includes avoids repeating standard A2DP, USB, or reroute submitdefinitions.
  • Volume curves are customizable. Previously, volume tables were hardcoded. In the XMLformat, volume tables are described and can be customized.

The template atframeworks/av/services/audiopolicy/config/audio_policy_configuration.xmlshows many of these features in use.

File format and location

The new audio policy configuration file isaudio_policy_configuration.xml and is located in/system/etc. The example below shows a simple audio policy configuration in theXML file format.

Speaker Earpiece Built-In Mic Speaker

The top-level structure contains modules that correspond to each audio HALhardware module, where each module has a list of mix ports, device ports, androutes:

  • Mix ports describe the possible config profiles for streamsthat can be opened at the audio HAL for playback and capture.
  • Device ports describe the devices that can be attached withtheir type (and optionally address and audio properties, if relevant).
  • Routes is separated from the mix port descriptor,enabling the description of routes from device to device or stream to device.

Volume tables are simple lists of points defining the curve used to translatefrom a UI index to a volume in dB. A separate include file provides defaultcurves, but each curve for a given use case and device category can beoverwritten.

0,0 100,0 0,-9600 100,-9600 1,-4950 33,-3350 66,-1700 100,0 1,-5500 20,-4300 86,-1200 100,0

File inclusions

The XML Inclusions (XInclude) method can be used to include audio policyconfiguration information located in other XML files. All included files mustfollow the structure described above with the following restrictions:

  • Files can contain only top-level elements.
  • Files can't contain XInclude elements.

Use includes to avoid copying standard Android Open Source Project (AOSP)audio HAL module configurations information to all audio policy configurationfiles (which is prone to errors). A standard audio policy configuration XML fileis provided for the following audio HALs:

  • A2DP: a2dp_audio_policy_configuration.xml
  • Reroute submix: rsubmix_audio_policy_configuration.xml
  • USB: usb_audio_policy_configuration.xml

Audio policy code organization

AudioPolicyManager.cpp is split into several modulesto make it easy to maintain and configure. The organization offrameworks/av/services/audiopolicy includes thefollowing modules.

ModuleDescription
/managerdefault Includes the generic interfaces and behavior implementation common to allapps. Similar to AudioPolicyManager.cpp with enginefunctionality and common concepts abstracted away.
/common Defines base classes (for example, data structures for input output audio streamprofiles, audio device descriptors, audio patches, and audio ports). This was previouslydefined inside AudioPolicyManager.cpp.
/engine Implements the rules that define which device and volumes should be used fora given use case. It implements a standard interface with the generic part, suchas to get the appropriate device for a given playback or capture use case, or toset connected devices or external state (that is, a call state of forced usage) thatcan alter the routing decision.Available in two versions, customized and default; use build optionUSE_CONFIGURABLE_AUDIO_POLICY to select.
/engineconfigurable Policy engine implementation that relies on Parameter Framework (see below).Configuration is the Parameter Framework and where the policy isdefined by XML files.
/enginedefault Policy engine implementation previous Android Audio Policy Managerimplementations. This is the default and includes hard-coded rules thatcorrespond to Nexus and AOSP implementations.
/service Includes binder interfaces, threading, and locking implementation withthe interface to the rest of the framework.

Configuration using Parameter Framework

Audio policy code is organized to make it easy to understand andmaintain while also supporting an audio policy defined entirely by configurationfiles. The organization and audio policy design is Intel's ParameterFramework, a plugin-based and rule-based framework for handling parameters.

Using the configurable audio policy enables vendors OEMs to:

  • Describe a system's structure and its parameters in XML.
  • Write (in C++) or reuse a backend (plugin) for accessing describedparameters.
  • Define (in XML or in a domain-specific language) conditions/rules upon whicha given parameter must take a given value.

AOSP includes an example of an audio policy configuration file that uses the ParameterFramework at Frameworks/av/services/audiopolicy/engineconfigurable/parameter-framework/example/Settings/PolicyConfigurableDomains.xml. Fordetails, refer to Intel documentation on theParameter Framework.

Audio policy routing APIs

Android 6.0 introduced a public Enumeration and Selection API that sits ontop of the audio patch/audio port infrastructure and allows appdevelopers to indicate a preference for a specific device output or input forconnected audio records or tracks.

In Android 7.0, the Enumeration and Selection API is verified by CTS testsand is extended to include routing for native C/C++ (OpenSL ES) audio streams.The routing of native streams continues to be done in Java, with the addition ofan AudioRouting interface that supersedes, combines, and deprecatesthe explicit routing methods that were specific to the AudioTrack andAudioRecord classes.

For details on the Enumeration and Selection API, refer toAndroidconfiguration interfaces and OpenSLES_AndroidConfiguration.h.For details on audio routing, refer toAudioRouting.

Multi-channel support

If your hardware and driver supports multichannel audio via HDMI, you canoutput the audio stream directly to the audio hardware (this bypasses theAudioFlinger mixer so it doesn't get downmixed to two channels.) The audio HALmust expose whether an output stream profile supports multichannel audiocapabilities. If the HAL exposes its capabilities, the default policy managerallows multichannel playback over HDMI. For implementation details, seedevice/samsung/tuna/audio/audio_hw.c.

To specify that your product contains a multichannel audio output, edit theaudio policy configuration file to describe the multichannel output for yourproduct. The following example from a Galaxy Nexus shows a dynamicchannel mask, which means that the audio policy manager queries the channelmasks supported by the HDMI sink after connection.

audio_hw_modules { primary { outputs { … hdmi { sampling_rates 44100|48000 channel_masks dynamic formats AUDIO_FORMAT_PCM_16_BIT devices AUDIO_DEVICE_OUT_AUX_DIGITAL flags AUDIO_OUTPUT_FLAG_DIRECT } … } … } …}

You can also specify a static channel mask such asAUDIO_CHANNEL_OUT_5POINT1. AudioFlinger's mixer downmixes thecontent to stereo automatically when sent to an audio device that doesn'tsupport multichannel audio.

Media codecs

Ensure that the audio codecs your hardware and drivers support are properlydeclared for your product. For details, seeExposing Codecs to theFramework.

Источник: https://source.android.com/devices/audio/implement-policy?hl=ru

Transcribing short audio files | Cloud Speech-to-Text Documentation

Audio recording requires audio inputs что делать?

This page demonstrates how to transcribe a short audio file to textusing synchronous speech recognition.

Synchronous speech recognition returns the recognized text for short audio(less than ~1 minute) in the response as soon as it is processed. To processa speech recognition request for long audio, useAsynchronous Speech Recognition.

Audio content can be sent directly to Speech-to-Text, orit can process audio content that already resides in Google CloudStorage. See also the audio limits for synchronous speechrecognition requests.

Performing synchronous speech recognition on a local file

Here is an example of performing synchronous speech recognition on a local audiofile:

Refer to the speech:recognize API endpoint for completedetails.

To perform synchronous speech recognition, make a POST request and provide theappropriate request body. The following shows an example of a POST request usingcurl. The example uses the access token for a service account set up for theproject using the Google CloudCloud SDK. For instructions on installing the Cloud SDK,setting up a project with a service account, and obtaining an access token,see the quickstart.

curl -X POST \ -H «Authorization: Bearer «$(gcloud auth application-default print-access-token) \ -H «Content-Type: application/json; charset=utf-8» \ —data «{ 'config': { 'encoding': 'LINEAR16', 'sampleRateHertz': 16000, 'languageCode': 'en-US', 'enableWordTimeOffsets': false }, 'audio': { 'content': '/9j/7QBEUGhvdG9zaG9…base64-encoded-audio-content…fXNWzvDEeYxxxzj/Coa6Bax//Z' }}» «https://speech.googleapis.com/v1/speech:recognize»

See the RecognitionConfig reference documentation formore information on configuring the request body.

The audio content supplied in the request body is base64-encoded.For more information on how to base64-encodeaudio, see Base64 Encoding Audio Content. For more informationon the content field, see RecognitionAudio.

If the request is successful, the server returns a 200 OK HTTP status code andthe response in JSON format:

{ «results»: [ { «alternatives»: [ { «transcript»: «how old is the Brooklyn Bridge», «confidence»: 0.98267895 } ] } ]}

Refer torecognizecommand for complete details.

To perform speech recognition on a local file, use the gcloudcommand line tool, passing in the local filepath of the file to performspeech recognition on.

gcloud ml speech recognize PATH-TO-LOCAL-FILE —language-code='en-US'

If the request is successful, the server returns a response in JSON format:

{ «results»: [ { «alternatives»: [ { «confidence»: 0.9840146, «transcript»: «how old is the Brooklyn Bridge» } ] } ]} func recognize(w io.Writer, file string) error { ctx := context.Background() client, err := speech.NewClient(ctx) if err != nil { return err } data, err := ioutil.ReadFile(file) if err != nil { return err } // Send the contents of the audio file with the encoding and // and sample rate information to be transcripted. resp, err := client.Recognize(ctx, &speechpb.RecognizeRequest{ Config: &speechpb.RecognitionConfig{ Encoding: speechpb.RecognitionConfig_LINEAR16, SampleRateHertz: 16000, LanguageCode: «en-US», }, Audio: &speechpb.RecognitionAudio{ AudioSource: &speechpb.RecognitionAudio_Content{Content: data}, }, }) // Print the results. for _, result := range resp.Results { for _, alt := range result.Alternatives { fmt.Fprintf(w, «\»%v\» (confidence=%3f)», alt.Transcript, alt.Confidence) } } return nil}

Performing synchronous speech recognition on a remote file

For your convenience, Speech-to-Text API can perform synchronousspeech recognition directly on an audio file located in Google Cloud Storage,without the need to send the contents of the audio file in the body of yourrequest.

Here is an example of performing synchronous speech recognition on a filelocated in Cloud Storage:

Refer to the speech:recognize API endpoint for completedetails.

To perform synchronous speech recognition, make a POST request and provide theappropriate request body. The following shows an example of a POST request usingcurl. The example uses the access token for a service account set up for theproject using the Google CloudCloud SDK. For instructions on installing the Cloud SDK,setting up a project with a service account, and obtaining an access token,see the quickstart.

curl -X POST -H «Authorization: Bearer «$(gcloud auth application-default print-access-token) \ -H «Content-Type: application/json; charset=utf-8» \ —data «{ 'config': { 'encoding': 'LINEAR16', 'sampleRateHertz': 16000, 'languageCode': 'en-US' }, 'audio': { 'uri': 'gs://YOUR_BUCKET_NAME/YOUR_FILE_NAME' }}» «https://speech.googleapis.com/v1/speech:recognize»

See the RecognitionConfig reference documentation formore information on configuring the request body.

If the request is successful, the server returns a 200 OK HTTP status code andthe response in JSON format:

{ «results»: [ { «alternatives»: [ { «transcript»: «how old is the Brooklyn Bridge», «confidence»: 0.98267895 } ] } ]}

Refer torecognizecommand for complete details.

To perform speech recognition on a local file, use the gcloudcommand line tool, passing in the local filepath of the file to performspeech recognition on.

gcloud ml speech recognize 'gs://cloud-samples-tests/speech/brooklyn.flac' \—language-code='en-US'

If the request is successful, the server returns a response in JSON format:

{ «results»: [ { «alternatives»: [ { «confidence»: 0.9840146, «transcript»: «how old is the Brooklyn Bridge» } ] } ]} func recognizeGCS(w io.Writer, gcsURI string) error { ctx := context.Background() client, err := speech.NewClient(ctx) if err != nil { return err } // Send the request with the URI (gs://…) // and sample rate information to be transcripted. resp, err := client.Recognize(ctx, &speechpb.RecognizeRequest{ Config: &speechpb.RecognitionConfig{ Encoding: speechpb.RecognitionConfig_LINEAR16, SampleRateHertz: 16000, LanguageCode: «en-US», }, Audio: &speechpb.RecognitionAudio{ AudioSource: &speechpb.RecognitionAudio_Uri{Uri: gcsURI}, }, }) // Print the results. for _, result := range resp.Results { for _, alt := range result.Alternatives { fmt.Fprintf(w, «\»%v\» (confidence=%3f)», alt.Transcript, alt.Confidence) } } return nil}

Источник: https://cloud.google.com/speech-to-text/docs/sync-recognize?hl=ru

Testing computer or device audio

Audio recording requires audio inputs что делать?

There are two ways to join meeting audio, joining via computer or joining via telephone. Follow these sections to test your audio before or after joining a meeting.

You can also join a test meeting if you want to test your audio and familiarize yourself with meeting controls.

Prerequisites

  • Microphone, such as the built in microphone, a USB microphone or an inline microphone on headphones
  • Speaker or headphones

Windows | Mac

If you haven't enabled the setting to automatically join by computer audio, you can test your speaker and microphone before joining a meeting:

  1. After joining a meeting, click Test speaker and microphone.
  2. The meeting will display a pop-up window to test your speakers. If you don't hear the ringtone, use the drop-down menu or click No to switch speakers until you hear the ringtone. Click Yes to continue to the microphone test.
  3. If you don't hear an audio replay, use the drop-down menu or click No to switch microphones until you hear the reply. Click Yes when you hear the replay.
  4. Click Join with Computer Audio.
  5. Click Join with Computer Audio to join the test meeting with the selected microphone and speakers.

Testing Audio Using Audio Settings

To test your audio, navigate to your audio settings before or during a meeting:

Before a meeting

  1. Log in to the Zoom client.
  2. Click your profile picture then click Settings.
  3. Click the Audio tab.
  4. Follow the sections below to test your speaker or microphone.

During a Meeting

You can access your audio settings and test your audio when you are already in a meeting. 

  1. In the meeting controls, click the arrow next to Mute/Unmute.
  2. Click Audio Options. This will open your audio settings.

Testing your Speaker

  1. Click Test Speaker to play a test tone. 
  2. If you cannot hear it, select a different speaker from the menu or adjust the Volume.

Learn more about audio settings.

Testing your Microphone

  1. In the Microphone section, you will see the green Input Level bar move when Zoom is picking up audio. 
  2. Click Test Mic to test your microphone. 
  3. Your audio will start recording. Click Recording when you are done and it will play back. You can select another microphone from the menu or adjust the input level.
  4. Check Automatically adjust microphone settings if you want Zoom to adjust the input volume automatically. 

Learn more about audio settings.

Microphone Troubleshooting

  • If you are on on Mac OS 10.14 Mojave or earlier and can't access the microphone, check your operating system permissions to confirm that Zoom has access to the microphone. See Using the Zoom Client and Zoom Rooms with Mac OS 10.14 Mojave for more information.
  • If you are on Windows 10 and can't access the microphone, use the Windows search box to navigate to Microphone privacy settings. Switch on the Allow apps to access your microphone toggle, and enable access for Zoom.

Linux

To test your audio, navigate to your audio settings before or during a meeting:

Before a meeting

  1. Log in to the Zoom client.
  2. Click your profile picture then click Settings.
  3. Follow the sections below to test your speaker or microphone.

When Joining a Meeting

If you haven't enabled the setting to automatically join by computer audio, you can test your speaker and microphone before joining a meeting:

During a Meeting

You can access your audio settings and test your audio when you are already in a meeting. 

  1. In the meeting controls, click the arrow next to Mute/Unmute.
  2. Click Audio Options. This will open your audio settings.
  3. Follow the sections below to test your speaker or microphone.

Testing your Speaker 

  1. Click Test Speaker to play a sound. 
  2. If you cannot hear it, select a different speaker from the menu or adjust the Output Volume.

Learn more about audio settings.

To join device audio in a meeting

  1. If this is the first Zoom meeting that you've joined, you will be asked to give access to your microphone.
  2. When you join the meeting, you will be prompted to join the audio.

  3. You will have the following audio options:
    • Call via Device Audio: Connects audio through the internet
    • Dial in: Provides options to dial into the Zoom Meeting via telephone
    • Call My Phone: Calls your phone to join the meeting. Requires an audio plan for the meeting host
  4. If you choose Cancel, you can open the prompt again by tapping Audio.

     

  5. Once connected, you will see the microphone icon to mute and unmute in the bottom left hand corner.
  6. If you need to join the audio with a different method, you can disconnect audio by tapping More and then Disconnect Audio.