live555搭建实时播放rtsp服务器

avatar
作者
猴君
阅读量:0

live555关于RTSP协议交互流程

live555的核心数据结构值之闭环双向链表

live555 rtsp服务器实战之createNewStreamSource

live555搭建实时播放rtsp服务器

live555 rtsp服务器实战之doGetNextFrame

       live555可以说是rtsp的专项库,既可以搭建rtsp服务器,也可以搭建rtsp客户端;由于客户端可以由vlc,potplayer等工具代替;这章主要讲解rtsp服务器的搭建过程;

        live555开源库可以说是很照顾用户了,搭建rtsp服务器的流程很精简!不用考虑太多按照流程搭建即可;具体的流程参考live555源码例程:ive555-master/testProgs/testOnDemandRTSPServer.cpp;

        当然,和其他开源库源码例程一样,媒体流都是从文件中获取,与实际的项目需求还是有一定差别的;那么该怎么实现网络实时传输的rtsp服务器呢?

        首先看一下例程的源码(以h264媒体流为例):

int main(int argc, char** argv) {     // Begin by setting up our usage environment(首先设置我们的使用环境):     //初始化调度任务的类。它负责管理任务的执行顺序和时间,确保多线程环境中的任务正确执行。     TaskScheduler* scheduler = BasicTaskScheduler::createNew();     //初始化基本操作环境的类。它封装了各种基本功能,如内存管理、错误处理、日志记录等。     //接受一个 TaskScheduler 对象作为参数,并使用这个调度器来初始化环境。这确保了环境对象能够与调度器协同工作,正确地调度和管理任务。     env = BasicUsageEnvironment::createNew(*scheduler);      UserAuthenticationDatabase* authDB = NULL;      // Serve regular RTSP (over a TCP connection):     //创建rtsp服务器的类,里面创建了与客户端交互需要的ipv4和ipv6网络套接字,和各信令(OPTION DESCRIBE SETUP PLAY等)的处理函数     RTSPServer* rtspServer = RTSPServer::createNew(*env, 8554, authDB);     if (rtspServer == NULL) {         *env << "Failed to create RTSP server: " << env->getResultMsg() << "\n";         exit(1);     }      char const* descriptionString = "Session streamed by \"testOnDemandRTSPServer\"";        char const* streamName = "h264ESVideoTest";     char const* inputFileName = "test.264";     //将streamName descriptionString等信息保存起来,供交互时使用     ServerMediaSession* sms       = ServerMediaSession::createNew(*env, streamName, streamName,               descriptionString);      int datalen = 0;     unsigned char *databuf = nullptr;     databuf = (unsigned char *)malloc(1024);     //将该H264VideoFileServerMediaSubsession媒体子会话加入到会话链表中;咱们就是实现H264VideoFileServerMediaSubsession部分     sms->addSubsession(H264VideoFileServerMediaSubsession            ::createNew(*env, inputFileName, reuseFirstSource));     //将该会话添加到哈希表中,key就是streamName,val就是sms     rtspServer->addServerMediaSession(sms);     //打印rtsp的访问url; test例程自定义的打印接口,不在live555库里,在实际项目中可以不实现;     announceStream(rtspServer, sms, streamName, inputFileName);     //进入主循环;循环监视双向闭环链表,延时队列的状态,运行响应的处理函数     env->taskScheduler().doEventLoop(); // does not return      return 0; // only to prevent compiler warning }

        为了方便阅读,代码做了精简!去掉了部分注释和不需要的代码;这样整个服务器的搭建流程就已经很清晰明了了;是不是很简单?

注:

媒体子会话:一个流URL可能链接很多客户端,每个客户端就是一个子会话。

        来!来!来!接下来就是重头戏啦!我们怎么获取我们的网络媒体流呢? 首先我们需要实现两个虚函数:createNewStreamSource和doGetNextFrame;这两个函数的作用及在源码的调度流程我的前两篇文章已经介绍过,感兴趣的话点链接看详情;

        我们需要创建两个类来实现这两个虚函数:

        H264LiveVideoServerMediaSubssion类用于实现createNewStreamSource;因为createNewStreamSource函数被声明在OnDemandServerMediaSubsession类中,所以要继承OnDemandServerMediaSubsession类:

class H264LiveVideoServerMediaSubssion : public OnDemandServerMediaSubsession {  public:     static H264LiveVideoServerMediaSubssion* createNew(UsageEnvironment& env);  protected: // we're a virtual base class     H264LiveVideoServerMediaSubssion(UsageEnvironment& env);     ~H264LiveVideoServerMediaSubssion();  protected: // redefined virtual functions     FramedSource* createNewStreamSource(unsigned clientSessionId,unsigned& estBitrate);     RTPSink* createNewRTPSink(Groupsock* rtpGroupsock,             unsigned char rtpPayloadTypeIfDynamic,             FramedSource* inputSource);  };

        由于createNewRTPSink在OnDemandServerMediaSubsession类中也是纯虚函数,所以也需要在子类中实现;来看下函数实现:

H264LiveVideoServerMediaSubssion* H264LiveVideoServerMediaSubssion::createNew(UsageEnvironment& env, Boolean reuseFirstSource) {     return new H264LiveVideoServerMediaSubssion(env, reuseFirstSource); }  H264LiveVideoServerMediaSubssion::H264LiveVideoServerMediaSubssion(UsageEnvironment& env, Boolean reuseFirstSource) : OnDemandServerMediaSubsession(env, reuseFirstSource)                                                                       { }   H264LiveVideoServerMediaSubssion::~H264LiveVideoServerMediaSubssion() { }  FramedSource* H264LiveVideoServerMediaSubssion::createNewStreamSource(unsigned clientSessionId, unsigned& estBitrate) {     /* Remain to do : assign estBitrate */     estBitrate = 1000; // kbps, estimate      //创建视频源     H264FramedLiveSource* liveSource = H264FramedLiveSource::createNew(envir());     if (liveSource == NULL)     {         return NULL;     }      // Create a framer for the Video Elementary Stream:     return H264VideoStreamFramer::createNew(envir(), liveSource); } RTPSink* H264LiveVideoServerMediaSubssion::createNewRTPSink(Groupsock* rtpGroupsock,unsigned char rtpPayloadTypeIfDynamic,FramedSource* /*inputSource*/) {   return H264VideoRTPSink::createNew(envir(), rtpGroupsock, rtpPayloadTypeIfDynamic); }

        createNewStreamSource函数是需要我们实现的函数,函数创建了H264FramedLiveSource类对象,这个类对象就是我们实现doGetNextFrame函数的类;createNewRTPSink函数不需要自己实现;之间创建H264VideoRTPSink类即可;

        接下来看一下H264FramedLiveSource类;该类的doGetNextFrame指明了怎么获取媒体流;读取媒体流的方法;因为doGetNextFrame是在FramedSource中声明的纯虚函数;因此需要继承FramedSource类;

class H264FramedLiveSource : public FramedSource { public:     static H264FramedLiveSource* createNew(UsageEnvironment& env);  protected:     H264FramedLiveSource(UsageEnvironment& env);     ~H264FramedLiveSource();  private:     virtual void doGetNextFrame(); };

        FramedSource类中只有一个doGetNextFrame纯虚函数,用于获取媒体流,其他不用实现;doGetNextFrame函数的实现如下:

H264FramedLiveSource::H264FramedLiveSource(UsageEnvironment& env) : FramedSource(env) { }  H264FramedLiveSource* H264FramedLiveSource::createNew(UsageEnvironment& env) {     H264FramedLiveSource* newSource = new H264FramedLiveSource(env);     return newSource; }  H264FramedLiveSource::~H264FramedLiveSource() { }  void H264FramedLiveSource::doGetNextFrame() {     uint8_t *frameData = nullptr;     int frameLen = 0;     //获取视频帧,该函数自己实现,可以是接收网络帧,也可以是读取本地数据     Get_Video_Frame(&frameData, frameLen);     //赋值父类成员变量     fFrameSize = frameLen;     memcpy(fTo, frameData, fFrameSize);          // nextTask() = envir().taskScheduler().scheduleDelayedTask(0,(TaskFunc*)FramedSource::afterGetting, this);//表示延迟0秒后再执行 afterGetting 函数     //这个是必须的,原因参考我关于doGetNextFrame的文章     afterGetting(this);      return; }

        我是以帧的方式获取的视频流,在实际的开发中,不一定非要一次取一帧;也不一定按帧取;可以任意长度的数据;live555内部会进行分帧;

        定义好这两个函数之后就可以修改main函数中的媒体流相关代码:        

//例程代码     sms->addSubsession(H264VideoFileServerMediaSubsession            ::createNew(*env, inputFileName, reuseFirstSource)); //修改代码     sms->addSubsession(H264LiveVideoServerMediaSubssion            ::createNew(*env, reuseFirstSource));

        至此,rtsp服务器搭建完成;其实过程很简单;只不过第一次使用live555开源库有点不知从何下手;当然live555源码的实现技巧,运行流程也是很值得借鉴的;源码分析我已经出了一些文章;关注我了解更多;

live555实现实时流rtsp服务器源码:

    广告一刻

    为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!