Я пытаюсь использовать собственный SDK для webrtc (libjingle) для android. Пока я могу отправлять потоки от android к сети (или другим платформам) просто отлично. Я также могу получить MediaStream от однорангового узла. (к обратному сигналу onAddStream)Как играть в webrtc.AudioTrack на Android (нет видео)
Проект, над которым я работаю, требует только аудиопотоков. никакие видео треки не создаются и не отправляются никому.
Мой вопрос: Как я могу использовать объект MediaStream, который я получаю от удаленных одноранговых узлов?
@Override
public void onAddStream(MediaStream mediaStream) {
Log.d(TAG, "onAddStream: got remote stream");
// Need to play the audio ///
}
Снова вопрос об аудио. Я не использую видео. , очевидно, все родные примеры webrtc используют видео треки, поэтому мне не повезло найти какую-либо документацию или примеры в Интернете.
Заранее благодарен!
Спасибо за ответ !! - Как я могу получить экземпляр аудиомастера? в использовании чистого libjingle. –
AudioManager - это внутренняя библиотека Android – Ajay
Так просто - Спасибо! –