live555 rtsp服务器实战之createNewStreamSource
live555 rtsp服务器实战之doGetNextFrame
live555可以说是rtsp的专项库,既可以搭建rtsp服务器,也可以搭建rtsp客户端;由于客户端可以由vlc,potplayer等工具代替;这章主要讲解rtsp服务器的搭建过程;
live555开源库可以说是很照顾用户了,搭建rtsp服务器的流程很精简!不用考虑太多按照流程搭建即可;具体的流程参考live555源码例程:ive555-master/testProgs/testOnDemandRTSPServer.cpp;
当然,和其他开源库源码例程一样,媒体流都是从文件中获取,与实际的项目需求还是有一定差别的;那么该怎么实现网络实时传输的rtsp服务器呢?
首先看一下例程的源码(以h264媒体流为例):
int main(int argc, char** argv) { // Begin by setting up our usage environment(首先设置我们的使用环境): //初始化调度任务的类。它负责管理任务的执行顺序和时间,确保多线程环境中的任务正确执行。 TaskScheduler* scheduler = BasicTaskScheduler::createNew(); //初始化基本操作环境的类。它封装了各种基本功能,如内存管理、错误处理、日志记录等。 //接受一个 TaskScheduler 对象作为参数,并使用这个调度器来初始化环境。这确保了环境对象能够与调度器协同工作,正确地调度和管理任务。 env = BasicUsageEnvironment::createNew(*scheduler); UserAuthenticationDatabase* authDB = NULL; // Serve regular RTSP (over a TCP connection): //创建rtsp服务器的类,里面创建了与客户端交互需要的ipv4和ipv6网络套接字,和各信令(OPTION DESCRIBE SETUP PLAY等)的处理函数 RTSPServer* rtspServer = RTSPServer::createNew(*env, 8554, authDB); if (rtspServer == NULL) { *env << "Failed to create RTSP server: " << env->getResultMsg() << "\n"; exit(1); } char const* descriptionString = "Session streamed by \"testOnDemandRTSPServer\""; char const* streamName = "h264ESVideoTest"; char const* inputFileName = "test.264"; //将streamName descriptionString等信息保存起来,供交互时使用 ServerMediaSession* sms = ServerMediaSession::createNew(*env, streamName, streamName, descriptionString); int datalen = 0; unsigned char *databuf = nullptr; databuf = (unsigned char *)malloc(1024); //将该H264VideoFileServerMediaSubsession媒体子会话加入到会话链表中;咱们就是实现H264VideoFileServerMediaSubsession部分 sms->addSubsession(H264VideoFileServerMediaSubsession ::createNew(*env, inputFileName, reuseFirstSource)); //将该会话添加到哈希表中,key就是streamName,val就是sms rtspServer->addServerMediaSession(sms); //打印rtsp的访问url; test例程自定义的打印接口,不在live555库里,在实际项目中可以不实现; announceStream(rtspServer, sms, streamName, inputFileName); //进入主循环;循环监视双向闭环链表,延时队列的状态,运行响应的处理函数 env->taskScheduler().doEventLoop(); // does not return return 0; // only to prevent compiler warning }
为了方便阅读,代码做了精简!去掉了部分注释和不需要的代码;这样整个服务器的搭建流程就已经很清晰明了了;是不是很简单?
注:
媒体子会话:一个流URL可能链接很多客户端,每个客户端就是一个子会话。
来!来!来!接下来就是重头戏啦!我们怎么获取我们的网络媒体流呢? 首先我们需要实现两个虚函数:createNewStreamSource和doGetNextFrame;这两个函数的作用及在源码的调度流程我的前两篇文章已经介绍过,感兴趣的话点链接看详情;
我们需要创建两个类来实现这两个虚函数:
H264LiveVideoServerMediaSubssion类用于实现createNewStreamSource;因为createNewStreamSource函数被声明在OnDemandServerMediaSubsession类中,所以要继承OnDemandServerMediaSubsession类:
class H264LiveVideoServerMediaSubssion : public OnDemandServerMediaSubsession { public: static H264LiveVideoServerMediaSubssion* createNew(UsageEnvironment& env); protected: // we're a virtual base class H264LiveVideoServerMediaSubssion(UsageEnvironment& env); ~H264LiveVideoServerMediaSubssion(); protected: // redefined virtual functions FramedSource* createNewStreamSource(unsigned clientSessionId,unsigned& estBitrate); RTPSink* createNewRTPSink(Groupsock* rtpGroupsock, unsigned char rtpPayloadTypeIfDynamic, FramedSource* inputSource); };
由于createNewRTPSink在OnDemandServerMediaSubsession类中也是纯虚函数,所以也需要在子类中实现;来看下函数实现:
H264LiveVideoServerMediaSubssion* H264LiveVideoServerMediaSubssion::createNew(UsageEnvironment& env, Boolean reuseFirstSource) { return new H264LiveVideoServerMediaSubssion(env, reuseFirstSource); } H264LiveVideoServerMediaSubssion::H264LiveVideoServerMediaSubssion(UsageEnvironment& env, Boolean reuseFirstSource) : OnDemandServerMediaSubsession(env, reuseFirstSource) { } H264LiveVideoServerMediaSubssion::~H264LiveVideoServerMediaSubssion() { } FramedSource* H264LiveVideoServerMediaSubssion::createNewStreamSource(unsigned clientSessionId, unsigned& estBitrate) { /* Remain to do : assign estBitrate */ estBitrate = 1000; // kbps, estimate //创建视频源 H264FramedLiveSource* liveSource = H264FramedLiveSource::createNew(envir()); if (liveSource == NULL) { return NULL; } // Create a framer for the Video Elementary Stream: return H264VideoStreamFramer::createNew(envir(), liveSource); } RTPSink* H264LiveVideoServerMediaSubssion::createNewRTPSink(Groupsock* rtpGroupsock,unsigned char rtpPayloadTypeIfDynamic,FramedSource* /*inputSource*/) { return H264VideoRTPSink::createNew(envir(), rtpGroupsock, rtpPayloadTypeIfDynamic); }
createNewStreamSource函数是需要我们实现的函数,函数创建了H264FramedLiveSource类对象,这个类对象就是我们实现doGetNextFrame函数的类;createNewRTPSink函数不需要自己实现;之间创建H264VideoRTPSink类即可;
接下来看一下H264FramedLiveSource类;该类的doGetNextFrame指明了怎么获取媒体流;读取媒体流的方法;因为doGetNextFrame是在FramedSource中声明的纯虚函数;因此需要继承FramedSource类;
class H264FramedLiveSource : public FramedSource { public: static H264FramedLiveSource* createNew(UsageEnvironment& env); protected: H264FramedLiveSource(UsageEnvironment& env); ~H264FramedLiveSource(); private: virtual void doGetNextFrame(); };
FramedSource类中只有一个doGetNextFrame纯虚函数,用于获取媒体流,其他不用实现;doGetNextFrame函数的实现如下:
H264FramedLiveSource::H264FramedLiveSource(UsageEnvironment& env) : FramedSource(env) { } H264FramedLiveSource* H264FramedLiveSource::createNew(UsageEnvironment& env) { H264FramedLiveSource* newSource = new H264FramedLiveSource(env); return newSource; } H264FramedLiveSource::~H264FramedLiveSource() { } void H264FramedLiveSource::doGetNextFrame() { uint8_t *frameData = nullptr; int frameLen = 0; //获取视频帧,该函数自己实现,可以是接收网络帧,也可以是读取本地数据 Get_Video_Frame(&frameData, frameLen); //赋值父类成员变量 fFrameSize = frameLen; memcpy(fTo, frameData, fFrameSize); // nextTask() = envir().taskScheduler().scheduleDelayedTask(0,(TaskFunc*)FramedSource::afterGetting, this);//表示延迟0秒后再执行 afterGetting 函数 //这个是必须的,原因参考我关于doGetNextFrame的文章 afterGetting(this); return; }
我是以帧的方式获取的视频流,在实际的开发中,不一定非要一次取一帧;也不一定按帧取;可以任意长度的数据;live555内部会进行分帧;
定义好这两个函数之后就可以修改main函数中的媒体流相关代码:
//例程代码 sms->addSubsession(H264VideoFileServerMediaSubsession ::createNew(*env, inputFileName, reuseFirstSource)); //修改代码 sms->addSubsession(H264LiveVideoServerMediaSubssion ::createNew(*env, reuseFirstSource));
至此,rtsp服务器搭建完成;其实过程很简单;只不过第一次使用live555开源库有点不知从何下手;当然live555源码的实现技巧,运行流程也是很值得借鉴的;源码分析我已经出了一些文章;关注我了解更多;
live555实现实时流rtsp服务器源码: