2024-07-13 Qt6.5版本后视频渲染

avatar
作者
筋斗云
阅读量:0

文章目录


前言

Qt 6版本中,视频播放能力得到了质的飞越,相对于qt5,变化也很多,具体变化可以看官方说明 https://www.qt.io/blog/qt-multimedia-in-qt-6

在Qt5版本中,如果需要播放一个视频,由于后端的解码能力很弱,绝大多数需要写解码的代码,但是在Qt6中,后端加入了ffmpeg,解码已经不是我们所需解决的问题,Qt Multimedia 可以很好的去播放视频
但是,在项目中大家可能不止会播放本地视频,很多情况下需要播放在线视频,比较低延时的rtsp流,udp裸流等等。对于需要实时性高的同学来说,qt的后端能力还是没有做好。这时还是需要自己处理视频流。

在Qt5时代,要播放一个低延时视频流,通常是使用ffmpeg自己解封装,解码视频流后,再将yuv/nv12等视频数据交给qt去渲染,问题是qt渲染能力低,很早大家使用sdl等工具去渲染视频,但由于sdl和qt各自使用自己的渲染事件,常会导致闪烁等问题,后来开始使用opengl,手写shader自己处理yuv数据,这个方案确实可行,效率也很高,但是得学习opengl相关知识。

但到了Qt6,新的QVideoSink,完全具备各视频的渲染,yuv,nv12等常见格式一点都不在话下,而且支持多种渲染方式,比如opengl和d3d11,d3d9等等,它主要是使用了Qt6的QRHI技术,有兴趣的同学可以去了解了解。

我这里主要讲讲如何使用ffmpeg解码+QVideoSink进行视频渲染播放


一、先上代码

1.将yuv/nv12等解码后的视频数据放入QVideoSink内

class VideoSourceRenderer : public QObject {     Q_OBJECT     Q_PROPERTY(QVideoSink* videoSink READ videoSink WRITE setVideoSink NOTIFY videoSinkChanged)  public:     VideoSourceRenderer()     {     }     QVideoSink* videoSink() const     { 	return m_videoSink.get();      }     void  setVideoSink(QVideoSink* videoSink)     { 	if (m_videoSink == videoSink) 		return; 	m_videoSink = videoSink; 	emit videoSinkChanged();     }  signals:     void videoSinkChanged(); private:     QPointer<QVideoSink> m_videoSink;     QVideoFrameFormat    m_videoFrameFormat; public:     bool init(int width, int height,QVideoFrameFormat::PixelFormat fmt)     { 		QSize _size(width, height); 		m_videoFrameFormat = QVideoFrameFormat(_size, fmt); 		m_videoSink->setVideoFrame(m_videoFrameFormat); 		return true;      }      // 这里怎么操作都可以,只要将解码后的yuv或者nv12等格式的数据放入QVideoFrame内,再设置给videoSink即可     bool draw(const unsigned char* y, int y_pitch, const unsigned char* u, int u_pitch,               const unsigned char* v, int v_pitch)                { 					bool        re = false; 					QVideoFrame frame(QVideoFrameFormat(QSize(m_width, m_height),  								m_videoFrameFormat.pixelFormat())); 					if (!frame.isValid() || !frame.map(QVideoFrame::WriteOnly)) { 						return false; 					} 					if (y && y_pitch > 0) 						memcpy(frame.bits(0), y, y_pitch * m_height); 					if (u && u_pitch > 0) 						memcpy(frame.bits(1), u, u_pitch * m_height / 2); 					if (v && v_pitch > 0) 						memcpy(frame.bits(2), v, v_pitch * m_height / 2); 					frame.setStartTime(0); 					frame.unmap(); 					m_videoSink->setVideoFrame(frame); 					return re; 				} };  

2.将AVFrame数据保存进QVideoSink

我这里是从项目中摘出来的代码,如果有同学在使用中,可不必这样,原则上只是拷贝AVFrame的数据

class TiVideoEngineManager : public QObject{     Q_OBJECT public: 	Q_PROPERTY(VideoSourceRenderer* videoRenderer READ videoRenderer CONSTANT) 	TiVideoEngineManager() 	{ 		m_videoRenderer = new VideoSourceRenderer(); 		startTimer(1); 	} 	 protected:     void timerEvent(QTimerEvent* event) override     { 		//Get AVFrame from ffmpeg decodec, 		AVFrame* frame = m_decodec.getFrame(); 		if (frame && m_videoRenderer) { 			m_videoRenderer->draw(frame->data[0],  									frame->linesize[0],  									frame->data[1],  									frame->linesize[1], 									frame->data[2],  									frame->linesize[2]); 			 		}     }      private:     VideoSourceRenderer* m_videoRenderer = nullptr; }; 

3.在qml中的显示

在QML中,使用VideoOutput即可完美显示
在qml中时,需要提前进行注册TiVideoEngineManager ,VideoSourceRenderer 不然qml会无法访问

// in qml VideoOutput { 	id:videoutput     Component.onCompleted: { 			//需要提前注册好TiVideoEngineManager            TiVideoEngineManager.videoRenderer.videoSink = videoutput.videoSink      } } 

4.同理,在widget中也可显示

widget中我并未测试,但是QVideoWidget内也同样有videoSink,要在QVideoWidget显示视频,只需将yuv数据设置进videoSink后即可。

二、QVideoFarme支持的格式

可以查看官方手册https://doc.qt.io/qt-6/qvideoframeformat.html
它格式很多,不确实是否都可以使用,但是常见的yuv数据格式都是支持的

三、说说渲染效率问题

我在渲染YUV数据时,界面使用的是qml,会发现渲染会比纯使用opengl慢100ms,找了找发现,在Windows上,Qt6.5后,Qt整个界面的渲染默认是根据系统平台决定的,在win11上默认使用的是D3D11,这会导致QVideoSink也是使用D3D11进行yuv的渲染,在理想中,windows中d3d11渲染yuv视频应该会更快才对,但实际并没有。

在尝试将Qt整个界面的渲染改为Opengl后,整个渲染速度即可手写的opengl渲染速度一样。
所以我认为是Qt的RHI中,d3d11的视频渲染没有写好,在Qt官方提交过bug,官方人员只说是关注,不知道后续能不能解决

如果真的需要关心这100ms的渲染效率,可以尝试在main函数的第一行设置

QQuickWindow::setGraphicsApi(QSGRendererInterface::OpenGL);  

广告一刻

为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!