2016-06-08 6 views
0

Я просмотрел учебное пособие и другие вопросы, но не нашел документацию о том, как выбрать путь для предварительно записанного аудиофайла и отправить его в службу транскрипции. Я наткнулся на этот код в учебникеКак я могу записать звуковой файл, хранящийся в памяти на Android, используя интерфейс веб-камеры IBM Watson?

curl -X POST -u <username>:<password> --header "Content-Type: audio/flac" --header "Transfer-Encoding: chunked" --data-binary @<path>0001.flac "https://stream.watsonplatform.net/speech-to-text/api/v1/recognize?continuous=true"

Могу ли я сделать что-то подобное на Android SDK, который в настоящее время реализует интерфейс WebSocket?

ответ

0

Я наткнулся на эту project по mihui на Github, который имеет несколько незначительных изменений от watson-developer-cloud:master. Проект mihui, помимо AudioCaptureThread, имеет FileCaptureThread, который считывает байты из аудиофайла и записывает их в websocket. Это послужило моей целью расшифровки аудиофайлов. Пожалуйста, проверьте это thread.

0

Вы можете использовать Android-SDK. Он основан на Java-SDK, но имеет функциональность, характерную для Android. Вы можете легко захватывать звук с микрофона или изображений с камеры.

Посмотрите на папки примеров: https://github.com/watson-developer-cloud/android-sdk/tree/master/example

+0

Большое спасибо за ответ. Я использовал sdk android по ссылке выше, и это избавило меня от лишнего времени. Тем не менее, репо на https://github.com/mihui/speech-android-sdk также имеет поток FileCapture, интегрированный в проект, который хорошо послужил моей цели – skbrhmn

 Смежные вопросы

  • Нет связанных вопросов^_^