Я пытался установить, может ли Web Audio API быть полезным для анализа аудиоданных, втянутых в ArrayBuffer
быстрее, чем в реальном времени. В приложениях можно использовать обнаружение биений, определение высоты тона и т. Д., А не передавать файлы на сервер для выполнения этой работы.Является ли API веб-аудио полезным для проведения аудио-анализа быстрее, чем в реальном времени?
Интерфейс AnalyserNode
кажется хорошо подходит для такой задачи, но он чувствует себя неуклюжим, потому что она по-прежнему требует сцепления с AudioBufferSourceNode
и start()
ING его, прежде чем получить какие-либо данные. И, чтобы сделать это быстрее, чем в реальном времени, потребовалось бы поднять его playbackRate
, что снизит качество анализа.
В качестве альтернативы, использование dsp.js может быть лучше, но его хранилище было почти неактивным в течение нескольких лет, что не является огромным вотумом доверия.
Я полагаю, что коренной вопрос: является ли API веб-аудио, предназначенным для работы с анализом, или является его единственной целью (и, следовательно, тем, что он предназначен и оптимизирован) для производительности и воспроизведения? Если это не так, какие-либо другие стандарты или инструменты были предложены или созданы специально для анализа аудио? Я ответил на свой вопрос, указав dsp.js?
Спасибо Крису! Хотелось бы услышать о любых ресурсах, которые прорастают в этой области, когда это происходит. Я нахожусь в списке рассылки Web Audio W3C, так что, возможно, я поймаю там некоторые новости. – JoshMock