webrtc rtsp 예제

매개 변수 id=rtsp://webrtc-ipcam.ddns.net/live1.sdp는 재생할 스트림의 URL을 설정합니다. WebRTC 서버는 IP 캠에서 스트림을 가져오고 처리하고 WebRTC를 사용하여 브라우저로 브로드캐스트합니다. 라우터가 DDNS를 지원하는 것일 수 있습니다. 그렇지 않은 경우 캠 의 옵션을 사용할 수 있습니다: MediaStream API는 동기화된 미디어 스트림을 나타냅니다. 예를 들어 카메라와 마이크 입력에서 가져온 스트림에 비디오 및 오디오 트랙이 동기화되어 있습니다. MediaStreamTrack을 완전히 다른 요소인요소와 혼동하지 마십시오. webrtc.github.io/samples/src/content/getusermedia/gum 예제의 경우 stream.getAudioTracks()는 오디오가 없기 때문에 빈 배열을 반환하고 작업 중인 웹캠이 연결되어 있다고 가정하면 stream.getVideoTracks() 하나의 배열을 반환합니다. 웹캠에서 스트림을 나타내는 MediaStreamTrack입니다. 각 MediaStreamTrack은 종류 (`비디오`또는 `오디오`)와 레이블 (같은 `페이스 타임 HD 카메라 (내장)`)를 가지고 있으며, 오디오 또는 비디오 중 하나 이상의 채널을 나타냅니다.

이 경우 비디오 트랙이 하나만 있고 오디오가 없지만 전면 카메라, 후면 카메라, 마이크 및 `화면 공유` 응용 프로그램에서 스트림을 얻는 채팅 응용 프로그램과 같은 사용 사례를 쉽게 상상할 수 있습니다. 짧은 대기 시간은 종종 다양한 게임 사용 시나리오에서 요구 사항입니다. 예를 들어 실시간 비디오 경매, 라이브 딜러 비디오 카지노, 앵커맨이 있는 대화형 온라인 TV 프로그램, 원격 쿼드콥터 제어 등. 카메라의 RTSP 주소가 필요했기 때문에 네트워크 설정을 열었습니다. 우리의 경우 RTSP 주소는 live1.sdp, 즉 카메라는 rtsp://192.168.1.37/live1.sdp One gotcha에서 사용할 수 있습니다: getUserMedia 제약 조건공유 리소스의 사용 가능한 구성에 영향을 미칠 수 있습니다. 예를 들어 한 탭에서 640×480 모드에서 카메라를 연 경우 한 모드에서만 열 수 있으므로 다른 탭에서는 제약 조건을 사용하여 고해상도 모드에서 열 수 없습니다. 두 번째 탭이 더 높은 해상도 모드로 카메라를 다시 열고 비디오 처리를 사용하여 첫 번째 탭의 경우 비디오 트랙을 640×480으로 축소할 수 있지만 구현되지는 않았습니다. getUserMedia: webrtc.github.io/samples 데모와 코드를 보거나 웹 오디오에 대한 입력으로 getUserMedia를 사용하는 크리스 윌슨의 놀라운 예를 보십시오. 허용되지 않는 제약 조건 값을 설정하면 DOMException 또는 요청된 해결을 사용할 수 없는 경우 초과 제한 오류가 발생합니다. 이 작업을 확인하려면 webrtc.github.io/samples/src/content/getusermedia/resolution 데모를 사용해 보십시오.

두 번째 옵션은 트랜스코딩 그룹을 사용하도록 설정하여 CPU 부하를 줄입니다. 예를 들어, WebRTC 엔지니어 저스틴 우버티는 2013년 Google I/O WebRTC 프레젠테이션에서 ICE, STUN 및 TURN에 대한 자세한 정보를 제공합니다. (프레젠테이션 슬라이드는 TURN 및 STUN 서버 구현의 예를 제공합니다.) startWebSocket(“ws://Your_Ant_Media_Server_Address:5080/WebRTCAppEE/websocket”,”rtsp://127.0.0.1:6554/stream1″, “stream1”); WebRTC 스트림의 그리드를 표시하는 예제는 옵션 “layout=x”를 사용하여 사용할 수 있습니다 webrtc.github.io/samples/src/content/getusermedia/resolution.

Comments are closed.