源代码已上传gitee
一、需求
live555
源代码中的liveMediaServer
是将本地文件作为源文件搭建rtsp服务器,我想用live555
封装一个第三方库,接收流数据搭建Rtsp服务器;预想接口如下:
class LiveRtspServer { public: /** *@brief构造一个新的Live Rtsp服务器对象 * *@param videoCodec要用于流式传输的视频编解码器 *@param audioCodec要用于流式传输的音频编解码器 *@param fps流的帧速率 *@param port用于流传输的端口 *@param suffix要添加到流URL的后缀 *@param username身份验证的用户名 *@param password身份验证的密码 */ LiveRtspServer(const std::string &videoCodec = "h264", const std::string &audioCodec = "none", unsigned fps = 60, unsigned port = 8554, const std::string &suffix = "", const std::string &username = "", const std::string &password = ""); /** *@brief设置客户端上状态已更改的回调 * *@param callback客户端状态更改时要调用的回调 */ void setOnClientStateChanged(clientConnectCallback callback){ clientConnectCallback_ = callback; } /** *@brief启动服务器 */ void start(); /** *@brief停止服务器 */ void stop(); /** *@brief向客户端发送视频数据 * *@param buf包含视频数据的缓冲区 *@param len视频数据的长度 *如果数据发送成功,@return true,否则为false */ bool sendVideoData(const unsigned char *buf, int len); /** *@brief向客户端发送音频数据 * *@param buf包含视频数据的缓冲区 *@param len视频数据的长度 *如果数据发送成功,@return true,否则为false */ bool sendAudioData(const unsigned char *buf, int len); /** *@brief获取服务器的RTSP URL * *@param ipv6是否使用ipv6 *@return const char*RTSP URL */ const char *RtspUrl(int ipv6 = 0); };
二、实现
2.1 阅读代码
阅读LiveMediaServer
源码可以发现建立Rtsp服务器的大致过程比较简单,创建一个继承RTSPServer
的类,重写lookupServerMediaSession
方法创建ServerMediaSession
实例,并调用addServerMediaSession
将实例添加到RTSPServer
中,再通过创建对应不同数据格式的ServerMediaSubsession
实例和ServerMediaSession
的addSubsession
方法,将ServerMediaSubsession
实例添加到ServerMediaSession
中,最终读取数据通过ServerMediaSubsession
的createNewStreamSource
创建的FramedSource
实现;写的有点乱,回头做个流程图,整体来说过程比较简单;
详细的源码分析可以查看live555学习笔记【3】—RTSP服务器(一);这里摘录其中RTSP链接建立过程:
- 客户端发起RTSP OPTION请求,目的是得到服务器提供什么方法。RTSP提供的方法一般包括OPTIONS、DESCRIBE、SETUP、TEARDOWN、PLAY、PAUSE、SCALE、GET_PARAMETER。
- 服务器对RTSP OPTION回应,服务器实现什么方法就回应哪些方法。在此系统中,我们只对DESCRIBE、SETUP、TEARDOWN、PLAY、PAUSE方法做了实现。
- 客户端发起RTSP DESCRIBE请求,服务器收到的信息主要有媒体的名字,解码类型,视频分辨率等描述,目的是为了从服务器那里得到会话描述信息(SDP)。
- 服务器对RTSP DESCRIBE响应,发送必要的媒体参数,在传输H.264文件时,主要包括SPS/PPS、媒体名、传输协议等信息。
- 客户端发起RTSP SETUP请求,目的是请求会话建立并准备传输。请求信息主要包括传输协议和客户端端口号。
- 服务器对RTSP SETUP响应,发出相应服务器端的端口号和会话标识符。
- 客户端发出了RTSP PLAY的请求,目的是请求播放视频流。
- 服务器对RTSP PLAY响应,响应的消息包括会话标识符,RTP包的序列号,时间戳。此时服务器对H264视频流封装打包进行传输。
- 客户端发出RTSP TEARDOWN请求,目的是关闭连接,终止传输。
- 服务器关闭连接,停止传输。
2.2 搭建RTSP服务器
所以我们照着这个流程走一遍即可;
- 仿照
liveMedia/include/ByteStreamFileSource.hh
创建自己的liveMedia/include/ByteStreamFrameSource.hh
,重写doGetNextFrame
获取数据接口,并添加一个doPutFrames(const uint8_t *buffer,unsigned bufferSize)
传递视频数据接口;将传递进的数据在doGetNextFrame
中拷贝到fTo
地址,设置fFrameSize
; - 仿照
liveMedia/include/FileServerMediaSubsession.hh
创建自己的liveMedia/include/StreamServerMediaSubsession.hh
,以及对应的子类liveMedia/include/H265VideoStreamServerMediaSubsession.hh
和liveMedia/include/H264VideoStreamServerMediaSubsession.hh
,这两个子类调用createNewStreamSource
方法创建第一步的ByteStreamFrameSource
实例; - 仿照
mediaServer/DynamicRTSPServer.hh
创建自己的liveRtspServer/include/StreamRTSPServer.hh
,其中createNewSMS
方法我们根据传入的视频编码格式创建我们自己的H264/H265VideoStreamServerMediaSubsession
; - 关键的一步如何把
ByteStreamFileSource
中数据传入接口doPutFrames
导出到我们自己的StreamRTSPServer
中,在这里我通过1、2、3步创建自己的类中层层传递void onFrameSourceStateChanged(void* clientData, Boolean state)
回调的方式,将在第2步里创建或析构ByteStreamFrameSource
的实例指针传到StreamRTSPServer
的std::vector<ByteStreamFrameSource* > fFrameSources
成员中,这样就可以将数据传入了;
2.3 问题
流程走通后,遇到有时候rtsp客户端无法连接到客户端问题,经层层跟踪发现,rtsp链接建立时也就是服务器对RTSP DESCRIBE响应,这一步服务器端要读取一帧IDR帧获取其中视频流信息的SPS/PPS/VPS信息,发送必要的媒体参数给客户端,LiveMediaServer
中创建RTSP服务器时,每次链接建立都是从开始读取文件,必然能读取到IDR帧。而流式推送,如果编码参数GOP过大,长时间读取不到IDR帧,链接就会超时退出,因此需要将IDR帧保存,链接建立中第一次读取数据时保证读取到的是IDR帧;
三、遗留问题
- 目前虽然送进解析类的是一帧帧数据,但是
ByteStreamFrameSource
仍然保留了文件读取的BANK_SIZE
限制,没有找到控制发送地方,没有完全看懂这部分代码,所以在获取数据是加了等待数据到达超时方式,感觉不太友好; - 对音频处理不熟,音频功能没有添加;
live555
源代码为单线程读取数据,多客户端连接会有性能瓶颈,如何修改多线程;- 没有稳定性测试,也没有用于项目中,可能会有各种BUG,还需继续优化
抛砖引玉,希望路过大佬不吝指点一二。