引言

在研究无人机小半年了,多次听到数字图传和模拟图传字眼,一直都是一知半解,这次整体了解一下并加以 整理。

数字图传

数字图传:指数字化的图像信号经信源编码和信道编码,通过数字信道(电缆、微波、卫星和光纤等)传输,或通过数字存储、记录装置存储的过程。

说人话就是,将图像信号(模拟)经过调制、编码等流程转化为数字信号(0和1)发送出去,接收端接收这些数字信号按一定规则解码获得原始信号。

数字图传要编码,原理上决定延迟高一点,抗干扰能力强一点,图像质量更清晰。但这都是相对而言的,DJI的O3数字图传官网延迟说30ms,但是真的贵。

在这里插入图片描述
![在这里插入图片描述](https://img-blog.csdnimg.cn/56667512f6a94bd89446969c4b565d91.png
这是阿凡达mini 1s天空端!

由于各厂商的数字信号处理技术不一样,数字图传发送端和接收端要配套使用。

视频编码标准

视频编码标准,也称视频压缩标准。第二代视频编码标准:H.264/MPEG-4 AVC是目前使用最广泛的视频编码标准。H.265/HEVC是为了应对超高清视频的需求,在2013年推出的新一代视频编码标准。

视频传输标准

主要分为:
顺序流式传输(也叫HTTP流式传输):边看边下载,只能看到已下载部分。
实时流式传输:匹配连接带宽,可以实现视频的超前和延迟播放。基于UDP的RTP(实时传输协议,Real-time Transport Protocol)和RTCP(实时传输控制协议,Real-time Transport Control Protocol)。基于TCP的RTSP(实时流协议,Real Time Streaming Protocol)
不同的传输协议可以支持的音视频编码格式有差异。

模拟图传

模拟图像传送是指对时间(包括空间)和幅度连续变化的模拟图像信号作信源和信道处理,通过模拟信道传输或通过模拟记录装置实现存储的过程。一般用扫描拾取图像信息和压缩频带等信源处理方法得到图像基带信号,再用预均衡、调制等信道处理方法形成图像通带信号。

模拟图传的上限高,下限低。我用的比较多的是模拟图传,因为刚入门而且便宜。

在这里插入图片描述
这是我入门的无人机套件里面的图传设备。

在这里插入图片描述
这是我后面买的一款图传接收机,支持手机、电脑和AV显示屏。也称,口袋FPV。
说明:这款图传延迟100ms+,用来作为显示设备还是可以的,飞FPV的话就不太行了。本质上是模拟图传接收机+视频采集卡。模拟图传系统一般延迟在15ms左右,视频采集卡延迟50~100ms。PS:以上数据均不太准确,为作者瞎逛看到的,如果有实际需求,请自己调研!

模拟图传发送端和接收端是通用的,只需要频段匹配即可。这样也会带来保密性的问题。

问题

我与师兄争辩了一个下午和晚上,讨论了一些问题,做出了一些结论。
问题1:模拟信号的优势?
从图传系统和航模领域分析,为什么会有这么多模拟图传?主要是模拟图传技术门槛低,正如电视的发展也是从模拟到数字的。模拟图传电路结构简单,成本低。当然,也有贵的模拟图传,但这项技术原理决定了贵也不会有太好的图像质量,所以DJI才一直往数传发展。当然对于FPV,还是模拟图传好,因为需要追求延时最低。其他优点,看参考链接就好了。

问题2:DJI的O3真的这么厉害?
DJI的O3官方参数有30ms延时,能达到4k画质,这个应该是在良好的环境下才能达到的效果。在信号不好的区域,图传该卡顿还是卡顿,信号该丢失还是丢失,不过丢失可能会重传吧,不至于一整个黑屏。PS:没有试验过,一些猜测加上网上的调研。

问题3:模拟信号图像处理能不能搞?
不能搞。模拟信号就是时代的眼泪,以前的闭路电视,现在还有一些广播还采用这项技术,其余生活中基本不见了。模拟图像就是比不过数字图像,模拟信号抗干扰性差,容易受到噪声的干扰。以前的闭路电视,典型的模拟信号,会有雪花、条纹线、噪点之类的现象。模拟图像后期能用算法处理有限,只能滤波一下,但这样还是损失像素。

这部分讨论断绝了我一个想法,哎,难受啊!

图传分类

按传输模式可划分为:模拟图传和数字图传

按工作频段分:915Mhz,2.4Ghz,5.8Ghz

基于协议划分:WIFI协议,一些厂商的专有协议(如大疆的lightbridge2)

视频传输系统研究

可研究的点:
嵌入式开发:视频压缩算法
射频收发装置:通用的框架
机载电脑 or PC:视觉算法
在这里插入图片描述
摄像头一般包括PCB,这些PCB比较小,里面有ISP芯片,对图像进行处理。如果要进行图像处理研究的,就要选择纯摄像头+Hi3559开发板,进行嵌入式开发。
不管是数字图传系统还是模拟图传系统,本质都是射频收发装置,如果要自己搭建系统研究算法,这部分可以选择一些电台,能进行数据传输的即可。
视频采集卡本质上就是一种转换接口数据的装置。

摄像头原理图:
在这里插入图片描述

高性能CMOS图像信号处理芯片:
在这里插入图片描述

Hi3559开发板
sj4000运动相机:里面就是这个芯片,支持micro HDMI输出,USB输出。前提是买到正版,山山狗好多不是用这个芯片的。
Hi3518也是差不多的,这个淘宝上有买开发板的,可以研究一下视频传输相关的算法。
在这里插入图片描述

视频采集卡(Video Capture card):获取视频信息,将其存储或播放出来。UVC全称为USB Video Class,即:USB视频类,是一种为USB视频捕获设备定义的协议标准。
分为:数字信号采集卡,模拟信号采集卡。
HDMI转USB
Hi3559Hi3559
AV转USB
在这里插入图片描述

流媒体架构

目前主流的流媒体系统架构主要分为以下几种:
1.单服务器架构:该架构中,所有的流媒体服务都运行在一台服务器上。这种架构简单、易于部署,但是在流量较大时,可能会导致服务器性能瓶颈,影响系统的稳定性。
2.分布式架构:该架构中,流媒体服务被分布在多个服务器上,每个服务器都可以独立地处理一部分流量。这种架构具有高可用性和可扩展性的优点,但是需要对系统进行复杂的负载均衡和监控。
3.CDN架构:该架构中,流媒体服务通过CDN(内容分发网络)进行分发,用户可以从离自己最近的CDN节点获取流媒体内容。这种架构具有高速度、高可用性和低延迟的优点,但是需要在全球范围内部署CDN节点,成本较高。

流媒体系统架构的发展历程可以追溯到20世纪90年代初,当时的流媒体技术主要是基于RTSP(实时流协议)和RTP(实时传输协议)等标准。随着网络带宽的提高和编解码技术的发展,流媒体系统架构也不断发展和创新。
在2000年代初,流媒体系统开始采用基于HTTP的流媒体传输协议,例如,Adobe的Flash Media Server和Microsoff的Windows Media Server等。这种架构可以通过普通的Web服务器进行传输,无需特殊的流媒体服务器。
在2010年代,流媒体系统开始采用基于WebRTC (Web实时通信)的架构,例如,Google的WebRTC和Facebook的WebRTC Live等。这种架构可以在Web浏览器中直接进行流媒体传输,无需安装插件或客户端程序。

类似Gstreamer的流媒体系统架构主要是基于开源的流媒体框架和组件进行构建。Gstreamer是一种基于插件的流媒体框架,可以用于音频和视频的捕获、编码、解码、传输等多个方面。类似的流媒体系统架构还包括FFmpeg、VLC、DirectShow等。这些框架和组件可以通过编写插件或脚本进行自定义,从而满足不同的流媒体应用需求。

参考链接

添加链接描述
添加链接描述
视频编码标准
视频接口之AV、S端子、VGA、DVI、HDMI、DP
视频的传输方式
摄像头原理
海思Hi3518E数据手册
海思Hi3559 datasheet和Hi3559c的资料介绍
FPGA+AD9361 SDR实现机载视频无线传输
DJI FPV图传系统全面解析:Wi-Fi、LightBridge、OcuSync
中国通讯发展史(六)1G到5G
如何评价大疆新推出FPV数字图传系统?
模拟信号的优缺点分析

说得不对,多多包涵。欢迎评论指出!

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐