计算机系统中的 YUV

计算机系统中的 YUV

一、计算机系统中的YUV(论文文献综述)

曹飞[1](2021)在《基于Hi3516D的低功耗图像采集装置的设计与实现》文中研究指明本文在分析日益小型化、集成化的航天图像设备功耗紧张的基础上,依托“某图像采集装置的研制”项目,设计了以国产视频处理芯片Hi3516D为核心的接口方案,使设备能应用该接口实现低功耗图像采集传输功能。这些实际测试的数据对于飞行器飞行姿态的设计和校准都具有关键意义,可以直观的、有效的帮助飞行器进一步研发。本文具体分析了低功耗器件选型、CMOS接口电路、电源功耗硬件适配、动态调压硬件电路及数据收发流程;给出了动态调压硬件电路参数计算,图像采集、图像压缩、低功耗模块软件设计流程、UDP数据传输流程及uboot寄存器、内核模块的信息配置;测试了不同AVS支持下的功耗、图像质量、图像压缩比以及实时码率情况。经设计分析及测试验证,本图像采集装置工作在1Mbps码率以内时,整机功耗不超2.5W,且优化后降低功耗8~16%,图像质量PSNR优于36d B,压缩比大于150:1,实时码率控制在900k~1Mbps平稳输出,性能指标满足设计要求,且该设备已成功应用于某飞行器中。相较于其他平台的视频监控设备,本图像采集装置具有较小的体积,在此体积基础上具备较低的功耗、较高的压缩比、较低的码率,同时也能保证图像质量,且各种环境实验证明该装置在恶劣环境下依然可以稳定运行。目前该装置已经完成飞行实验,并且在硬回收存储器中成功回收数据,清晰拍摄了某部位在飞行过程中的变化状态,为飞行器的改进与研制提供了直观、形象、有效的数据来源。

孔祥基[2](2021)在《基于嵌入式Linux的机器人控制和交互》文中指出机器人的应用已经迅速扩展到娱乐、家庭、工业、医疗等多个领域。随着集成电路、5G通信、嵌入式等相关技术的进步,人们对于机器人的需求已经不再局限于简单的控制,拥有良好的人机交互能力是机器人发展的核心方向。基于高可靠性、低成本的机器人控制系统,并融合视觉、听觉等感知技术,来提高机器人的智能交互能力已成为近年来的研究热点。在小型人形机器人领域,低成本的控制器和开源、移植性高、可裁剪性高的操作系统组成的控制系统决定了产品的市场占有率,以及机器人二次迭代更新的速度。因此,本文基于ARM架构的硬件平台,结合嵌入式Linux操作系统以建立高性价比的交互控制系统为主要目标。通过结合其他硬件模块,及开源软件资源,实现机器人的语音交互控制,视觉信息在局域网内的采集压缩传输。论文的主要内容有:1.以ARM架构的S3C2440为硬件核心,移植嵌入式Linux系统及其他开源软件资源,搭建起了一个人形机器人控制系统。2.以搭建的软硬件系统为基础,在嵌入式Linux系统内实现对机器人运动的控制。结合语音识别模块、语音合成模块,实现机器人语音交互控制,完成了语音识别芯片在Linux系统下的驱动开发,及在Linux系统下机器人舵机、语音合成芯片等硬件设备的使用。在此过程中介绍了UART、SPI等通信协议以及Linux系统下字符设备驱动开发、SPI总线设备驱动的开发。3.基于Linux中的v4l2视频应用框架、USB摄像头驱动框架、H264编码、RTP协议等相关技术,并借助无线网卡和USB摄像头,模拟实现机器人视觉信息采集压缩,并通过网络发送至上位机。

朱恒伟[3](2021)在《面向楼宇监控的人脸识别系统的设计与实现》文中提出视频监控是现代楼宇中必不可少的安全设施,目前还是以简单拍摄视频为主,出现突发情况时,调用监控录像进行人工查看与取证。此方式存在较大的时间滞后,已难以满足实际需求。面向楼宇监控的人脸识别系统,旨在现有监控网络改动较小的基础上,开发人脸识别、黑名单报警和行人行踪轨迹绘制等功能,提高监控网络的时效性,为楼宇安保工作提供更多保障与支持。本文主要工作包括系统整体结构设计、视频监控中人脸检测、抓拍和识别算法的设计、系统各功能模块的设计与实现、系统功能与性能测试。其中重点工作总结如下:(1)系统采用C/S(客户端-服务器)架构,服务器选择嵌入式设备,能更好的适应视频监控的实际使用场景。人脸识别、黑名单报警、行人行踪轨迹绘制和抓拍历史回查等功能,均由服务器做数据支持,保证系统的可靠性。通过支持ONVIF协议,使得市面上主流监控相机能轻松接入系统,减少了对现有监控网络的改变。(2)在人脸识别过程中,引入了人脸图像质量评估模块。针对视频监控中人像的特点,融合了人脸姿态、清晰度、对比度和明亮度四项指标,从视频人脸序列中选出人脸图像质量最高的图片。并分别对增加评估模块前后的抓拍图像进行实验,结果显示,增加评估模块的人脸识别率具有一定的提升,人脸相似度均值有较大提升。(3)在人脸识别的基础上,开发黑名单报警与目标用户行踪轨迹绘制功能。为管理员提供最新黑名单用户动态,并支持一键行踪轨迹绘制功能,提高视频监控的时效性。行踪轨迹绘制时,采用动态轨迹绘制与静态链式轨迹查看相结合的方式,能更清晰、全面的掌握目标用户的行踪动向。(4)注册用户时,采用“流水线+多线程”的思想对注册过程进行优化,使得注册速度达到40QPS以上,处于相关领域较高水平。快速建立人脸信息数据库,是保障人脸识别系统能够快速投入使用与落地的前提。

汪演增[4](2021)在《基于容器技术的Android云交互系统研究与实现》文中研究说明近年来云计算发展越来越迅猛,并在大流行中对全世界的复苏发挥重要作用,而虚拟化作为云计算的关键技术之一,也在不断地发展,作为软件虚拟化应用之一的桌面虚拟化技术在企业中也得到更广泛地使用。与此同时,Android手机全球出货量趋于收紧,受大流行影响,这一情况进一步加剧。目前市面上桌面虚拟化技术大多面向传统PC系统,缺乏对移动端系统的支持。Android手机长期受困于恶意程序偷取用户隐私现象;不仅如此,虽然Android手机因屏幕大、可操作性强、智能以及便携性着称,但因考虑到功耗问题,Android手机的计算力、内存以及存储空间和PC相比还有较大差距,这也导致部分Android手机无法运行一些大型应用。再者,随着5G时代的来临,Android手机网络速度将得到明显提升。因此,本文实现了一个远程访问云端Android系统的Android云交互系统。本文首先充分研究了传统的虚拟化技术和容器技术的工作原理和适用场景以及Android系统架构,选择了使用容器技术对Android系统进行虚拟化的方案,然后深入研究了Android图形系统和输入系统关键技术、桌面云协议和VNC技术以及USB设备重定向技术,考虑到VNC跨平台的优越性以及对服务端和客户端物理设备性能的低要求性,本文对VNC进行优化,并以优化后的VNC作为Android云交互系统的桌面云协议。根据总体设计,本文首先对容器化之后的Android系统使用虚拟Binder驱动解决了服务端Binder机制服务冲突的问题;其次利用前台系统驱动解决了服务端显示设备和输入设备冲突的问题;然后在云交互系统的显示模块通过匿名共享内存截取Android系统的帧缓存图像并重定向至客户端,其中对视频模式的图像数据采用H.264编码,减少VNC传输视频时的带宽消耗;接着在云交互系统的输入模块利用桌面云协议传输客户端应用层拦截的输入事件至服务端,并把输入事件注入到服务端内核中的虚拟设备;最后选择USB设备重定向方案优化了VNC,使得VNC支持USB重定向,丰富了云交互系统的设备选择。本文在设计和实现Android云交互系统之后对其进行了功能和性能测试,测试结果表明了本云交互系统在功能上和性能上均达到了预计的目标,无论在普通桌面还是视频模式下,用户通过该云交互系统可以比较流畅地访问云端Android系统。

李凯阳[5](2021)在《基于云平台的音视频传输系统的设计与实现》文中研究说明随着云计算商业模式的飞速发展,许多企业逐渐在内部构建一套池化弹性易扩展的云平台来作为企业员工日常办公以及休闲娱乐的使用环境。云平台主要强调的是将用户的桌面计算环境或者应用资源置于云数据中心,而用户只需要通过网络对计算资源或应用资源按需获取使用,这其中不可避免得要涉及到音视频数据的传输。目前一些主流的音视频传输解决方案都是基于远程桌面协议的交互,但是这些远程桌面协议设计之初的定位都是基于文字、图片等桌面数据的传输,并且后来改进的音视频数据传输方案的实现都有着各种各样的局限性,比如对网络带宽的要求较高、对网络时延敏感、视频播放功能不完备以及音视频数据传输过程中的同步性不高等等。因此,在云平台下构建一套稳定高效、安全可靠的音视频传输系统具有极大的商业价值和研究意义。本文首先对云平台下一些主流的远程桌面协议关于音视频传输方面的设计与实现进行了深入学习研究,在详细了解了完成音视频传输所需要的关键技术与解决方案之后,提出设计一款在云平台下进行音视频传输的系统解决方案,重点解决了在云平台下进行音视频数据的同步传输问题。在本系统的具体设计实现中,采用高效的异步并发通信模型结合通信消息转发机制来进行网络传输;针对不同使用场景下的安全性需求,采取等级划分的加密机制来设计实现系统用户认证和通信安全;为了提高音视频传输质量和降低带宽资源消耗,本文使用了opus音频压缩编码算法和H.264视频压缩编码算法,同时还设计实现了服务端主动推送图像更新机制和基于视频图像分块差异化传输的优化方案;对于音视频同步问题,采用以时间戳为参考对象来进行音视频间同步处理,使用音视频同步缓冲区来进行音视频内同步;此外,在接收端设计实现以音频数据为主流,视频数据为副流的同步播放算法,并采用网络自适应传输机制来协调发送端和接收端音视频数据处理速率。针对以上分析完成了系统总体设计与实现,并且给出了相应的工作流程图以及部分核心代码。本文设计并实现的音视频传输系统旨在为云平台提供一套安全高效、灵活易扩展的系统解决方案,让人们在进行日常办公的同时也能享受到优质的音视频传输服务。

周钰致[6](2020)在《边缘计算环境中低时延高可信显示芯片的研究与设计》文中研究说明随着5G网络技术的发展,接入网络的设备数量以及网络边缘设备中产生的数据量迅速增加,这给移动网络基础设施带来了不小的负担。在这种发展趋势下,基于云计算的服务模式很难稳定地保持对网络边缘设备请求处理的实时性。一种新提出的边缘计算模型采取了将部分计算处理的过程迁移至终端设备或者网络链路中的方法,通过这种方法降低了终端设备的数据处理响应的延迟。人机交互系统的性能对用户体验的影响尤为重要,而显示设备又是人机交互的重要桥梁。因此低时延高可靠的显示系统对于边缘计算来说非常重要。本文重点针对边缘计算设备中人机交互显示系统的实时性、低功耗、可靠性三个方面的关键技术展开研究,通过算法、架构、系统、芯片四个层次协同优化的设计方法,最终实现了低时延、低功耗、高可靠的边缘计算显示芯片。本文主要的研究工作和创新点如下:(1)针对实时性需求,提出了一种适用于边缘计算的异构图形运算系统的架构,通过均衡流水线不同阶段的运算负载及顶点片元异构加速器架构设计实现了高能效的图形处理。通过自研的芯片开发板在常温室内条件下对芯片中的图形处理核进行了测试,测试过程中关闭了其他运算单元模块,图形处理核最高频率能达到200MHz。通过选取典型的边缘计算的界面进行测试,最高处理速率为152MPixels/s,性能功耗比相比于面向低成本显示系统的ARM架构微处理器芯片 STM32L476 提升了 5.8 倍。(2)针对功耗及内存带宽的限制,提出了一种基于块的实时帧缓存压缩算法,设计了压缩器的架构。通过在帧像素点产生的过程中同步进行压缩的方法,在不影响系统性能的前提下降低了运算单元的带宽需求。在基于Kintex-7 FPGA的测试平台上移植了图形处理系统和帧缓存压缩器并运行典型界面进行测试,压缩后系统功耗节省的效果相比于采用JPEG格式的帧缓存压缩方法提升了 2.3倍。(3)针对可靠性需求,提出了一种多周期累加冗余信息的脉动阵列容错算法,设计了容错脉动阵列架构。通过软件仿真注入错误验证错误恢复率,实验结果表明错误恢复率能达到99%,错误恢复情况优于时间空间冗余算法,能满足面向深度学习应用的脉动阵列的需求。采用Synopsys公司的综合工具进行综合并对比面积,在乘法器精度为32bit的情况下,冗余面积为61.5%,对比双模冗余架构节省了 38.5%的冗余面积,相比于错误迁移方法可以实现软错误的错误检测及错误恢复。(4)设计并流片了一款基于RISC-V扩展指令集的高能效显示芯片。在常温常压条件下,对芯片进行了测试。测试结果表明芯片系统的运行功耗为65mW,相比于学术界中统一着色器架构的图形处理器芯片的研究成果功耗降低了 3倍。通过面向边缘计算的典型场景进行测试,性能功耗比相比于主流基于ARM的微处理器芯片STM32L476提升了 1.49倍。通过算法、架构、系统多个层面进行了软硬件协同优化设计,并在芯片设计层面上采用了低功耗的设计方法,本文最终实现了面向边缘计算的高能效、高可靠显示芯片。

王昱人[7](2020)在《车载多路视频记录与回放系统设计》文中进行了进一步梳理伴随信息技术的进步与电子设备的高速发展,越来越多的武器装备系统开始使用数字视频和图像技术。相应地,车载记录仪的发展趋势向多元化和智能化逐渐靠拢。通过记录仪采集、存储试验中的武器系统工作状态参数,对于分析、改进设计并有效规避研制风险、减少研发经费、缩减开发周期都具有一定的工程现实意义。本文基于某型号车载记录仪的设计需求,开发出了一款符合使用需求的车载记录仪。该车载记录仪能够同时记录2路VGA视频、1路PAL视频、RS-422数据和CAN总线数据,并且可以通过记录仪将记录视频进行回放。在此基础上,针对高清数字视频的原始数据量大且需要多路同时编码与回放的问题进行了分析与讨论。首先,系统选用TMS320DM8168和FPGA架构作为硬件平台,并以此为基础进行软件系统的研发。在视频处理芯片TMS320DM8168的ARM上部署嵌入式Linux系统进行系统资源管理,并使用H.264标准视频压缩算法对原始视频数据进行压缩。将压缩过的视频文件封装为MP4文件并存储在SATA硬盘中。然后,软件采用Linux-Qt环境开发。通过功能划分,用Qt编写多个图形用户界面,并实现记录视频的选取与回放功能。本地播放的视频具有单帧播放和倍速播放等基础功能。为了使系统具有良好的可靠性和适用性,以模块化、一致化、系列化设计思想对总体进行设计。最后,搭设测试平台进行系统功能测试对原理进行验证。将记录的视频文件进行本地回放,测试软件的播放功能。通过测试设备验证,视频处理系统符合环境测试标准,录制的视频文件信息能够满足任务要求。经过车辆的系统调试,本文设计的视频处理系统达到预期的目标。

韩伟[8](2020)在《基于SOM-RK3399的可穿戴式眼—机交互接口装置研究》文中提出眼-机交互技术作为人机交互的一个重要分支,在助老助残、车辆辅助驾驶、人因分析、虚拟现实和军事等领域具有非常重要的研究和应用价值。随着嵌入式软硬件技术的发展,现阶段的眼-机交互装置所使用的处理器在处理能力及运算速度方面稍有不足,同时在便携式、可穿戴性等方面难以满足野外复杂战场环境的使用,从眼-机交互装置的发展趋势来看,眼-机交互装置逐步向小型化、智能化、可穿戴式的方向发展。针对军事领域野外战场环境的复杂性,便携式的眼-机交互装置能够有效提高武器系统的智能化水平,对于增强士兵的战场生存能力具有非常重要的意义,本论文基于ARM处理器高性能、低功耗、系统软硬件可裁剪的特性,以嵌入式计算机模块SOM-RK3399为硬件平台,设计了一种基于嵌入式设备的可穿戴式眼-机交互接口装置。首先,本论文通过查阅相关文献,总结现阶段眼-机交互装置的优势及不足,归纳了现阶段嵌入式技术的发展现状,提出一种以头盔式头戴设备和红外摄像头作为前端采集装置,以嵌入式计算机模块SOM-RK3399作为后端数据处理平台的小型化、便携、可穿戴式眼-机交互接口方案。并且从硬件层,操作系统层,应用软件层描述了眼-机交互接口装置的整体架构和工作流程。配置硬件系统初始化文件BootLoader,在Linux kernel中配置(Video for Linux 2)V4L2,LCD等驱动,通过Buildroot配置包含有QT和OpenCV库的根文件系统,搭建了眼-机交互接口装置工作的嵌入式操作系统。其次,基于嵌入式操作系统,详细阐述了基于V4L2架构的视频图像采集流程和编程时的相关参数设置。研究了本论文在图像采集时不同图像格式的转换关系。在获取到人眼图像后,制定了眼-机交互接口装置眼动信息采集的流程。最后,根据设计方案,搭建眼-机交互接口硬件装置,在硬件装置中移植基于二维点集的椭圆拟合自适应瞳孔检测算法。实验结果表明,对于分辨率为320×240,30fps/s的视频流图像,基于二维点集的椭圆拟合自适应瞳孔检测算法通过OTSU阈值计算,图像二值化,开、闭运算,边缘检测,椭圆拟合等步骤可以实现人眼图像的实时检测定位,且平均检测时间为7.2ms/fps。

盛梦雪[9](2020)在《智能视频监控资源调度及人数统计算法研究与应用》文中研究说明监控系统广泛应用于实际生活中,传统的监控系统只能起到简单的录像和报警作用,随着图像处理、计算机视觉和人工智能技术的融入,智能视频监控的概念越来越普及。起初,智能视频监控主要采用云计算技术,云计算中心拥有强大的计算能力,但能源消耗、带宽限制和隐私安全始终是其主要问题,边缘计算技术的产生和快速发展使这些问题得到了有效解决。本文设计一种具有实时智能视频分析功能的智能视频监控,在传统监控系统的基础上添加实时智能视频分析功能,通过深度学习技术对行人进行检测和特征提取,并在此基础上进行人数统计,然后将统计结果通过网络发送至平台展示。区别于传统的基于云计算的视频分析方法,智能算法均在边缘系统内部实现。嵌入式系统开发离不开仿真系统指导,本文先对系统仿真平台和边缘平台的开发环境进行了分析比较,并在此基础上进行针对性开发。仿真平台设计侧重于视频处理算法和数据传输算法。本系统选用ZYNQ7010开发板作为边缘处理平台。智能处理部件性能良好,但边缘处理平台资源和处理能力有限,通过对其进行性能测试发现视频处理过程完全无法到达实时。本文分析了ZYNQ7010开发板的各项资源,在此基础上设计了资源调度算法,大大加速了视频处理过程。为了确保系统的实时性,本文还根据视频特性提出了几种跳帧处理方案,使视频处理过程完全到达实时。本系统具有人数统计功能,本文研究了常用的人数统计方法和其他学者的优化成果,并结合本系统的智能分析结果设计了人数统计算法。然而,视频处理阶段的跳帧处理方案会降低视频的连续性,从而导致智能分析结果出现误差,降低人数统计的精确性。为此,本文针对系统此特有属性设计了一种行人跟踪和人数精确统计算法。该算法的应用场景不仅限于本系统,还可用于由于各种问题导致的视频分析结果不佳的情况,可兼容人脸识别和行人识别结果,能有效提升人数统计的准确性。本系统功能强大,软硬件环境的设计与部署较为复杂,因此本文还对系统的硬件环境和软件部署做了详细介绍,并设计了结果的可视化方案,对系统的功能进行了有效验证。本系统的性能设计要点在于系统的实时性和人数统计的准确性,因此本文选取了具有代表性的实验数据对系统进行了性能测试和实现方案的选取。结果显示经过优化后,系统能够达到预期的性能指标。

马沈骐[10](2020)在《基于深度学习的车辆行为视频识别方法研究及系统实现》文中研究指明随着近几年道路交通运输业的迅猛发展,各类交通违章行为的频发给交通监管机构带了巨大的压力。基于深度学习的车辆行为视频系统可以通过信息化、智能化手段,有效的监管路况,对不同的违章行为及时反馈上传,达到提高监管效率、降低人力成本的目的。本文针对智能交通系统中的车辆识别、车辆违章及其他车辆行为的判定等核心功能及关键技术进行研究并完成系统实现。本文研究的基于深度学习的车辆行为视频识别系统是基于监控球机返回的实时图像和本地视频图像双数据通道,并支持实时图像的抓拍取证功能。系统首先是预处理模块,主要根据颜色空间、图像形态学处理原理对分辨率较大的视频图像进行滤波、抽取。其次是系统的核心功能模块,包括目标检测与跟踪模块、违章判定模块和预测抓拍模块。对目标检测模块,快速且高精确度的目标检测是系统实现的关键。本文采用基于YOLO v3基础模型的深度学习网络实现车辆识别与位置的提取。通过大量不同类型车辆的参数训练,解决了传统形态学帧差法在识别车辆时受场景环境影响较大的问题,并且有效避免监控场景中由于光源位置及强度变化导致的阴影变化对车辆目标检测的影响,检测精度得到提高。对车辆跟踪提出了边界框收窄的帧间目标最大重叠面积法,降低了识别误差对跟踪的影响,通过阈值来适应不同场景范围内的目标车辆轨迹跟踪,可以有效的获得并记录每帧、每个目标的位置坐标信息。针对不同的违章行为给出了判别算法。首先采用最小二乘法实现道路边界线、禁停区域线等多种道路曲线拟合;然后根据目标车辆的轨迹信息,再结合拟合得到的道路边界数据,定义出跨黄线行驶、禁停区域违章停车等车辆行为的判定准则。最后对违章车辆运用像素坐标系运动轨迹预测方法进行最佳拍摄取证位置的预测,根据预测的位置调动球机及时变焦,实现违章抓拍与录像取证。该方法不受实际路况以及所使用的监控摄像机相关参数的影响,计算简单且鲁棒性良好,适用性强。最后本文实现了交通车辆违章智能跟踪抓拍系统。系统的硬件设备部分包括球形摄像机、计算机及服务器;软件部分基于Visual Studio开发平台,包括球机接口、球机控制、图像处理、智能研判、违章判别、取证及上传模块,实现系统自动判别违章等车辆行为并自动控制球机云台抓拍录像取证。本系统在实际违章频发路段进行测试,对压车道标线行驶、禁停区域违章停车等违章行为进行违章抓拍取证,经测试系统可以有效识别车辆及其特定违章行为。

二、计算机系统中的YUV(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、计算机系统中的YUV(论文提纲范文)

(1)基于Hi3516D的低功耗图像采集装置的设计与实现(论文提纲范文)

摘要
abstract
1 绪论
    1.1 课题研究背景及目的和意义
    1.2 国内外发展现状
        1.2.1 低功耗国内外发展现状
        1.2.2 压缩算法国内外发展现状
    1.3 本文的研究内容及安排
2 总体方案设计
    2.1 主要功能及组成
    2.2 方案设计
        2.2.1 低功耗设计原则
        2.2.2 ARM主控卡
        2.2.3 图像采集卡
        2.2.4 以太网通信卡
        2.2.5 电源卡
        2.2.6 工作流程
    2.3 本章小结
3 硬件设计与分析
    3.1 ARM主控卡设计
        3.1.1 接口设计
        3.1.2 上电顺序
    3.2 图像采集卡设计
        3.2.1 接口设计
        3.2.2 上电顺序
        3.2.3 光学镜头
    3.3 电源卡设计
        3.3.1 关键电源电路设计
        3.3.2 动态调压电路设计
    3.4 对外接口设计
        3.4.1 串口设计
        3.4.2 以太网口设计
    3.5 本章小结
4 程序设计
    4.1 图像采集模块
    4.2 图像压缩模块
        4.2.1 压缩原理
        4.2.2 压缩环节
        4.2.3 码率优化
        4.2.4 区域管理
        4.2.5 实时时钟
    4.3 低功耗模块
        4.3.1 AVS支持
        4.3.2 内核模块
    4.4 UDP通信
        4.4.1 协议选择
        4.4.2 传输流程
    4.5 本章小结
5 设备性能测试与验证
    5.1 测试平台的组成与搭建
    5.2 功耗测试
    5.3 图像质量测试
    5.4 压缩比测试
    5.5 码率测试
    5.6 本章小结
6 总结与展望
    6.1 设计研究总结
    6.2 工作展望
参考文献
攻读硕士学位期间发表的论文及所取得的研究成果
致谢

(2)基于嵌入式Linux的机器人控制和交互(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及意义
    1.2 国外研究及现状
    1.3 国内研究及现状
    1.4 发展状况分析与概述
    1.5 本文主要内容
第2章 软硬件平台的搭建
    2.1 嵌入式的相关概述
        2.1.1 嵌入式的定义
        2.1.2 嵌入式系统的特点
        2.1.3 嵌入式应用领域及发展方向
    2.2 硬件系统搭建
        2.2.1 系统硬件平台介绍
        2.2.2 JZ2440 相关的介绍
        2.2.3 系统控制部分概述
        2.2.4 系统的输入输出概述
    2.3 软件系统搭建
        2.3.1 开发环境的搭建
        2.3.2 Boot Loder及移植
        2.3.3 Linux内核编译配置以及移植
        2.3.4 构建根文件系统
    2.4 本章小结
第3章 语音交互控制系统的硬件设计
    3.1 UART串口简介
        3.1.1 S3C2440 UART接口简介
        3.1.2 串口相关基本概念
        3.1.3 串口通信的相关参数
    3.2 SYN6288 语音合成芯片介绍
        3.2.1 芯片功能特性介绍
        3.2.2 SYN6288 通信简介
    3.3 机器人舵机简介
    3.4 SPI协议介绍
        3.4.1 SPI相关简介
        3.4.2 SPI工作时序介绍
    3.5 LD3320 语音识别芯片介绍
        3.5.1 语音识别芯片功能特性介绍
        3.5.2 语音识别芯片通信简介
    3.6 本章小结
第4章 语音交互系统软件设计
    4.1 Linux设备驱动开发简介
        4.1.1 Linux设备驱动的分类和特点
        4.1.2 字符驱动开发流程
    4.2 Linux SPI总线驱动开发简述
        4.2.1 总线设备驱动模型
        4.2.2 SPI总线驱动开发框架
    4.3 语音交互系统软件设计
        4.3.1 LD3320 语音识别芯片驱动设计
        4.3.2 SYN6288 语音合成芯片软件设计
        4.3.3 机器人舵机控制的软件设计
        4.3.4 语音交互控制的总体设计
    4.4 本章小结
第5章 视频采集与传输
    5.1 视频采集部分相关概述
        5.1.1 摄像头工作原理概述
        5.1.2 UVC驱动分析
        5.1.3 Linux视频应用框架v4l2 概述
        5.1.4 WiFi模块简介
        5.1.5 WiFi模块驱动配置及使用
    5.2 视频压缩传输概述
        5.2.1 图像相关概念
        5.2.2 H264 编码中相关压缩技术介绍
        5.2.3 H264 编码相关概念
        5.2.4 H264 码流介绍
    5.3 视频传输相关概述
        5.3.1 流媒体概念
        5.3.2 常见流媒体协议介绍
        5.3.3 RTP协议
        5.3.4 X264 以及ORTP库的移植与相关简介
    5.4 视频采集压缩软件整体设计
        5.4.1 视频采集
        5.4.2 视频压缩
        5.4.3 视频传输
        5.4.4 总体流程与实验结果展示
    5.5 本章小结
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读学位期间主要研究成果
致谢

(3)面向楼宇监控的人脸识别系统的设计与实现(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 研究现状
        1.2.1 视频监控研究现状
        1.2.2 人脸检测
        1.2.3 人脸跟踪
        1.2.4 人脸识别
    1.3 论文主要内容与章节安排
第二章 系统总体设计
    2.1 系统设计目标与需求分析
    2.2 系统框架设计
    2.3 功能模块划分
    2.4 开发环境
    2.5 本章小结
第三章 人脸识别相关算法设计
    3.1 系统算法框架设计
    3.2 人脸检测
        3.2.1 Adaboost算法原理与实现
        3.2.2 人脸检测实验结果
    3.3 人脸优选与抓拍
        3.3.1 人脸优选与抓拍策略
        3.3.2 人脸抓拍实验结果
    3.4 人脸识别
        3.4.1 人脸识别原理与实现
        3.4.2 人脸识别实验结果
    3.5 本章小结
第四章 系统软件设计与实现
    4.1 系统软件整体流程
    4.2 人脸信息数据库管理模块
        4.2.1 数据库结构设计
        4.2.2 用户组操作
        4.2.3 用户操作
        4.2.4 批量注册用户
        4.2.5 库管理模块运行流程
    4.3 相机管理
    4.4 实时监控视频
        4.4.1 实时视频播放
        4.4.2 抓拍与识别结果显示
        4.4.3 黑名单报警与一键式轨迹绘制
    4.5 行踪轨迹绘制
        4.5.1 新建楼宇地图
        4.5.2 动态行人轨迹绘制
        4.5.3 链式轨迹图与轨迹回查
    4.6 人脸识别算法测试
        4.6.1 人脸检测
        4.6.2 人脸比对
        4.6.3 人脸识别
    4.7 本章小结
第五章 系统测试
    5.1 系统测试方法
    5.2 功能测试
    5.3 性能测试
    5.4 本章小结
第六章 总结与展望
    6.1 论文总结
    6.2 工作展望
致谢
参考文献
附录
攻读硕士学位期间取得的成果

(4)基于容器技术的Android云交互系统研究与实现(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究工作的背景与意义
    1.2 国内外研究现状
        1.2.1 国外研究现状
        1.2.2 国内研究现状
    1.3 本文研究内容
    1.4 本论文的结构安排
第二章 相关技术研究
    2.1 虚拟化技术
    2.2 Android系统概述
        2.2.1 Android系统架构
        2.2.2 Android系统进程间通信机制
        2.2.3 Android显示系统和输入子系统
    2.3 容器技术
        2.3.1 命名空间
        2.3.2 控制组
    2.4 USB相关技术
    2.5 VNC技术和RFB协议
    2.6 本章小结
第三章 云交互系统需求分析与设计
    3.1 需求分析
        3.1.1 功能需求分析
        3.1.2 性能需求分析
    3.2 云交互系统总体分析与设计
        3.2.1 虚拟化方案和容器技术实现工具选择
        3.2.2 系统架构设计
        3.2.3 虚拟化框架设计
        3.2.4 桌面云协议框架设计
        3.2.5 云交互系统模块划分
    3.3 LXC工具移植与容器环境构建
    3.4 云交互系统模块设计
        3.4.1 Binder虚拟化设计
        3.4.2 显示和输入设备虚拟化设计
        3.4.3 显示模块设计
        3.4.4 输入事件模块设计
        3.4.5 USB重定向模块设计
    3.5 本章小结
第四章 云交互系统的实现
    4.1 Binder虚拟化实现
    4.2 显示和输入设备虚拟化实现
    4.3 显示模块实现
        4.3.1 显示模块服务端实现
        4.3.2 显示模块客户端实现
    4.4 输入事件模块实现
        4.4.1 输入事件客户端实现
        4.4.2 输入事件服务端实现
    4.5 USB重定向模块实现
        4.5.1 Host端实现
        4.5.2 Guest端实现
    4.6 本章小结
第五章 系统的测试与分析
    5.1 测试环境
    5.2 功能测试
        5.2.1 远程桌面显示和多系统切换功能测试
        5.2.2 远程桌面操作功能测试
        5.2.3 USB重定向功能测试
    5.3 性能测试
        5.3.1 服务端性能测试
        5.3.2 客户端性能测试
    5.4 本章小结
第六章 全文总结与展望
    6.1 全文总结
    6.2 后续工作展望
致谢
参考文献

(5)基于云平台的音视频传输系统的设计与实现(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究工作背景与意义
    1.2 国内外研究历史与现状
    1.3 课题研究内容
    1.4 论文结构安排
第二章 相关技术介绍
    2.1 云平台下桌面虚拟化技术
    2.2 音频编码
    2.3 视频编码
    2.4 音视频同步技术
        2.4.1 音视频同步概念与影响因素
        2.4.2 音视频同步评价标准
        2.4.3 音视频同步方案
    2.5 通信加密算法
    2.6 本章小结
第三章 音视频传输需求分析与系统设计
    3.1 需求分析
        3.1.1 功能性需求
        3.1.2 非功能性需求
    3.2 系统架构设计
    3.3 网络传输模块分析与设计
        3.3.1 通信消息格式设计
        3.3.2 IO模型分析与设计
    3.4 系统安全模块分析与设计
        3.4.1 用户认证模块分析与设计
        3.4.2 通信安全模块分析与设计
    3.5 音频模块分析与设计
    3.6 视频模块分析与设计
    3.7 音视频同步模块分析与设计
    3.8 本章小结
第四章 音视频传输系统实现
    4.1 网络传输模块实现
        4.1.1 通信消息转发实现
        4.1.2 网络传输模型实现
    4.2 系统安全模块实现
        4.2.1 用户认证模块实现
        4.2.2 通信安全模块实现
    4.3 音频模块实现
        4.3.1 音频录制与播放实现
        4.3.2 音频编解码实现
    4.4 视频模块实现
        4.4.1 服务端主动推送图像更新机制实现
        4.4.2 图像分块差异化传输实现
        4.4.3 视频编解码实现
    4.5 音视频同步模块实现
        4.5.1 服务端同步发送实现
        4.5.2 客户端同步播放实现
        4.5.3 网络自适应传输实现
    4.6 本章小结
第五章 测试与分析
    5.1 测试目标
    5.2 测试环境
    5.3 功能测试
    5.4 性能测试
        5.4.1 性能测试指标
        5.4.2 性能测试结果与分析
    5.5 本章小结
第六章 全文总结与展望
    6.1 全文总结
    6.2 后续工作展望
致谢
参考文献

(6)边缘计算环境中低时延高可信显示芯片的研究与设计(论文提纲范文)

摘要
abstract
符号说明
第1章 绪论
    1.1 研究背景及意义
        1.1.1 边缘计算的发展概述
        1.1.2 边缘计算的研究价值
        1.1.3 边缘计算中的人机交互系统面临的挑战
        1.1.4 论文的研究方法
    1.2 关键技术及研究现状
        1.2.1 图形运算加速技术
        1.2.2 缓存压缩技术
        1.2.3 容错技术
    1.3 本文研究成果及文章结构
第2章 面向边缘计算的图形处理技术研究
    2.1 相关技术概述
        2.1.1 基于嵌入式CPU的图形绘制技术
        2.1.2 移动GPU的图形绘制流水线概述
        2.1.3 IMR与TBR渲染模式
        2.1.4 降低图形运算功耗的研究
    2.2 面向边缘计算的图形处理算法研究
        2.2.1 边缘计算图形化界面需求分析
        2.2.2 面向边缘计算的图形处理流水线设计
        2.2.3 模型描述
        2.2.4 顶点处理流程
        2.2.5 像素着色流程
    2.3 面向边缘计算的图形处理IP核设计
        2.3.1 流水线瓶颈分析
        2.3.2 基于TBR的GPU整体架构设计
        2.3.3 顶点处理器架构设计
        2.3.4 像素着色引擎架构设计
    2.4 实验结果与分析
        2.4.1 软件模型与流水线测试
        2.4.2 IP综合与分析
    2.5 本章小结
第3章 帧缓存压缩技术研究
    3.1 相关技术概述
        3.1.1 无损帧缓存压缩技术
        3.1.2 GPU系统中帧缓存压缩需求
        3.1.3 基于块的纹理压缩技术
        3.1.4 基于频域的压缩技术
    3.2 实时帧缓存压缩算法研究
        3.2.1 场景分析
        3.2.2 算法设计
    3.3 帧缓存压缩IP核设计
        3.3.1 帧缓存压缩器整体设计
        3.3.2 子模块设计
    3.4 实验结果与分析
        3.4.1 压缩算法评估
        3.4.2 带宽压缩及性能提升
        3.4.3 功耗评估
        3.4.4 IP综合及评估
    3.5 本章小结
第4章 脉动阵列容错技术研究
    4.1 面向脉动阵列的容错技术研究现状
        4.1.1 面向硬错误的容错架构
        4.1.2 面向软错误的容错架构
    4.2 脉动阵列容错架构设计
        4.2.1 背景描述
        4.2.2 容错算法
        4.2.3 容错架构设计
        4.2.4 系统分块冗余架构设计
    4.3 实验结果与分析
        4.3.1 实验方法
        4.3.2 错误恢复率
        4.3.3 额外面积消耗
    4.4 本章小结
第5章 面向边缘计算的高能效显示芯片系统的研究与设计
    5.1 显示芯片中微处理器指令集研究
        5.1.1 微处理器指令集概述
        5.1.2 指令集选择的研究
        5.1.3 指令集扩展的研究
        5.1.4 RISC-V处理器IP核设计
    5.2 显示芯片存储系统架构研究
        5.2.1 边缘计算中数据处理瓶颈分析
        5.2.2 分层存储系统架构设计
    5.3 显示芯片总线系统架构研究
        5.3.1 片上总线概述
        5.3.2 设备互联与仲裁研究
        5.3.3 系统互联架构设计
    5.4 显示芯片整体系统架构设计
    5.5 本章小结
第6章 面向边缘计算的高能效显示芯片的实现与验证
    6.1 显示芯片低功耗设计
        6.1.1 功耗来源分析
        6.1.2 门控时钟
        6.1.3 多电压设计
    6.2 显示芯片综合与实现
        6.2.1 逻辑综合
        6.2.2 后端设计及流片
    6.3 显示芯片的测试与验证
        6.3.1 综合及版图设计
        6.3.2 测试平台介绍
        6.3.3 边缘计算场景测试
        6.3.4 显示芯片性能测试
        6.3.5 性能对比
    6.4 本章小结
第7章 总结与展望
    7.1 总结
    7.2 展望
参考文献
致谢
在读期间发表的学术论文与取得的研究成果

(7)车载多路视频记录与回放系统设计(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景与意义
    1.2 国内外发展现状
        1.2.1 军用嵌入式设备发展现状
        1.2.2 军用车辆记录仪发展现状
    1.3 论文结构与内容
2 车载多路视频记录与回放系统设计方案
    2.1 系统需求分析
        2.1.1 系统功能
        2.1.2 系统指标
    2.2 系统总体设计
    2.3 硬件平台
        2.3.1 系统硬件架构
        2.3.2 芯片硬件架构
    2.4 软件总体设计
        2.4.1 软件的设计流程
        2.4.2 软件工作流程
    2.5 本章小结
3 车载多路视频记录与回放软件设计
    3.1 开发环境搭建
        3.1.1 软件开发包安装
        3.1.2 服务器平台搭建
        3.1.3 交叉编译环境搭建
    3.2 视频编码与存储模块设计
        3.2.1 视频的编码原理
        3.2.2 视频的编码功能实现
        3.2.3 视频的格式封装
        3.2.4 视频的存储实现
    3.3 视频回放模块设计
        3.3.1 视频的解码功能实现
        3.3.2 视频的回放功能实现
        3.3.3 快进与快退功能实现
        3.3.4 单帧功能的实现
    3.4 文件管理模块设计
        3.4.1 数据库的选择
        3.4.2 数据库结构设计
        3.4.3 数据库管理功能实现
    3.5 本章小结
4 图形用户界面设计
    4.1 界面需求分析
    4.2 Qt关键技术
        4.2.1 信号与槽机制
        4.2.2 Qt事件处理机制
        4.2.3 DM8168下Qt移植
    4.3 软件界面设计
        4.3.1 视频显示界面设计
        4.3.2 视频选择界面设计
        4.3.3 视频回放界面设计
        4.3.4 单帧播放界面设计
    4.4 本章小结
5 软件功能测试与结果分析
    5.1 测试环境搭建
    5.2 系统功能测试
        5.2.1 多路视频记录功能测试
        5.2.2 视频回放功能测试
        5.2.3 快进快退功能测试
        5.2.4 单帧播放功能测试
    5.3 测试结果与分析
        5.3.1 多路视频记录功能
        5.3.2 视频回放功能
        5.3.3 快进快退功能
        5.3.4 单帧播放功能
    5.4 结果分析
    5.5 本章小结
6 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间发表的论文及所取得的研究成果
致谢

(8)基于SOM-RK3399的可穿戴式眼—机交互接口装置研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 眼-机交互装置的研究现状
        1.2.2 眼动追踪方法的研究现状
        1.2.3 嵌入式系统的发展现状
    1.3 课题来源、研究内容与章节安排
2 眼-机交互接口整体设计方案
    2.1 系统设计方案
    2.2 嵌入式数据处理平台的选择及嵌入式操作系统的移植
        2.2.1 嵌入式硬件平台的选择
        2.2.2 嵌入式操作系统的移植
    2.3 本章小结
3 人眼图像采集及眼动信息检测架构
    3.1 嵌入式Linux软件设计的关键技术
        3.1.1 V4L2 图像采集
        3.1.2 图像格式的设置
    3.2 眼-机交互装置眼动信息提取流程
    3.3 本章小结
4 装置搭建及瞳孔识别检测算法移植
    4.1 基于二维点集的椭圆拟合自适应瞳孔检测算法
        4.1.1 OTSU算法图像二值化
        4.1.2 瞳孔边缘检测
        4.1.3 瞳孔椭圆拟合精确定位
    4.2 硬件平台搭建及瞳孔检测实现
        4.2.1 硬件平台设计搭建
        4.2.2 眼图像采集定位软件实现
    4.3 瞳孔识别定位测试结果分析
    4.4 本章小结
5 总结与展望
    5.1 研究总结
    5.2 研究展望
参考文献
攻读硕士学位期间发表的论文及取得的研究成果
致谢

(9)智能视频监控资源调度及人数统计算法研究与应用(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题背景及研究意义
    1.2 国内外研究现状
        1.2.1 智能视频监控技术及系统研究现状
        1.2.2 人数统计技术及产品研究现状
    1.3 本文主要研究内容
    1.4 论文组织结构
第2章 视频处理及边缘计算技术
    2.1 视频处理技术
        2.1.1 视频采集技术
        2.1.2 视频编解码技术
        2.1.3 视频处理技术
    2.2 边缘计算技术
        2.2.1 边缘计算应用
        2.2.2 边缘计算核心技术
    2.3 本章小结
第3章 智能视频监控系统总体设计
    3.1 系统功能需求分析
    3.2 系统体系结构设计
        3.2.1 传统视频监控体系结构分析
        3.2.2 智能视频监控体系结构设计
    3.3 系统总体框架设计
    3.4 系统软件功能设计
        3.4.1 视频处理软件功能设计
        3.4.2 人数统计软件功能设计
    3.5 本章小结
第4章 基于FPGA智能视频处理资源调度算法
    4.1 仿真平台与边缘平台视频处理
    4.2 仿真平台视频处理算法
        4.2.1 视频处理算法
        4.2.2 数据传输算法
    4.3 边缘平台视频处理性能评估
    4.4 边缘平台视频处理资源
        4.4.1 ARMCortex-A9 处理器资源分析
        4.4.2 FPGA逻辑单元资源分析
    4.5 基于FPGA智能视频处理资源调度算法详细设计
        4.5.1 解码加速算法设计
        4.5.2 格式转换加速算法设计
    4.6 视频处理跳帧算法详细设计
        4.6.1 关键帧处理算法设计
        4.6.2 固定步长处理算法设计
        4.6.3 最大化处理算法设计
    4.7 本章小结
第5章 基于深度学习视频分析技术的人数统计算法
    5.1 常见人数统计方法及其优化
    5.2 基于深度学习视频分析技术的人数统计算法详细设计
        5.2.1 深度学习视频分析结果研究
        5.2.2 人数统计算法详细设计
    5.3 基于深度学习视频分析技术的人数统计算法优化
        5.3.1 人数统计算法主要问题
        5.3.2 人数统计算法优化设计
    5.4 本章小结
第6章 智能视频监控系统实现案例及应用
    6.1 智能视频监控开发环境设计
        6.1.1 系统硬件环境设计
        6.1.2 摄像头参数配置
        6.1.3 系统调试开发环境设计
        6.1.4 系统开发环境搭建
    6.2 智能视频监控软件部署方案设计
        6.2.1 系统启动文件部署
        6.2.2 系统应用工程部署
        6.2.3 系统软件运行流程
    6.3 智能视频监控资源调度及人数统计算法测试与应用
        6.3.1 算法测试实验数据设计
        6.3.2 算法测试结果可视化设计
        6.3.3 算法性能测试及应用
    6.4 本章小结
结论
参考文献
攻读硕士学位期间取得的研究成果
致谢

(10)基于深度学习的车辆行为视频识别方法研究及系统实现(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景
    1.2 国内外研究现状
    1.3 论文研究内容
    1.4 论文组织结构
第二章 智能交通系统中的视频处理理论基础
    2.1 颜色空间理论
        2.1.1 RGB颜色空间
        2.1.2 YUV颜色空间
    2.2 图像处理理论基础
        2.2.1 图像滤波
        2.2.2 图像抽取
    2.3 视频图像数据获取
        2.3.1 文件版本视频图像解码
        2.3.2 实时监控视频图像解码
    2.4 本章小结
第三章 基于YOLOv3 深度学习的目标检测与跟踪原理
    3.1 深度学习理论基础
        3.1.1 卷积神经网络(CNN)
        3.1.2 误差反向传播算法(BP算法)
    3.2 基于深度学习的目标检测典型模型理论基础
        3.2.1 基于候选区域的目标检测模型
        3.2.2 基于回归的目标检测模型
    3.3 YOLOv3 基础模型网络结构与实现方法
    3.4 YOLOv3 性能检测指标
    3.5 目标检测网络模型训练
        3.5.1 网络参数训练-训练集
        3.5.2 网络识别性能测试-测试集
        3.5.3 网络模型评估-验证集
    3.6 目标跟踪算法
        3.6.1 跟踪算法实现
        3.6.2 跟踪效果分析及优化
    3.7 本章小结
第四章 智能交通系统中违章检测和抓拍方法研究
    4.1 道路信息提取
        4.1.1 监控边界信息提取
        4.1.2 预置位信息提取
    4.2 车辆违章行为判定算法
        4.2.1 车道分界标压线行驶行为判别
        4.2.2 违章禁停行为判别
    4.3 预测抓拍取证算法研究
        4.3.1 预测抓拍原理
        4.3.2 预测抓拍方法实现
        4.3.3 预测抓拍应用结果分析
    4.4 本章小结
第五章 智能交通系统中跟踪抓拍系统构建研究
    5.1 硬件系统
        5.1.1 球形摄像机
        5.1.2 硬件系统组织架构
    5.2 软件系统
        5.2.1 系统初始化模块
        5.2.2 目标检测与跟踪模块
        5.2.3 违章判定模块
        5.2.4 预测抓拍模块
        5.2.5 证据上传模块
    5.3 系统的构建实现
        5.3.1 系统初始化及运行步骤
        5.3.2 系统测试结果
    5.4 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
致谢
参考文献
作者简介

四、计算机系统中的YUV(论文参考文献)

  • [1]基于Hi3516D的低功耗图像采集装置的设计与实现[D]. 曹飞. 中北大学, 2021(09)
  • [2]基于嵌入式Linux的机器人控制和交互[D]. 孔祥基. 汕头大学, 2021(02)
  • [3]面向楼宇监控的人脸识别系统的设计与实现[D]. 朱恒伟. 电子科技大学, 2021(01)
  • [4]基于容器技术的Android云交互系统研究与实现[D]. 汪演增. 电子科技大学, 2021(01)
  • [5]基于云平台的音视频传输系统的设计与实现[D]. 李凯阳. 电子科技大学, 2021(01)
  • [6]边缘计算环境中低时延高可信显示芯片的研究与设计[D]. 周钰致. 中国科学技术大学, 2020(01)
  • [7]车载多路视频记录与回放系统设计[D]. 王昱人. 中北大学, 2020(11)
  • [8]基于SOM-RK3399的可穿戴式眼—机交互接口装置研究[D]. 韩伟. 中北大学, 2020(10)
  • [9]智能视频监控资源调度及人数统计算法研究与应用[D]. 盛梦雪. 北京工业大学, 2020(06)
  • [10]基于深度学习的车辆行为视频识别方法研究及系统实现[D]. 马沈骐. 东南大学, 2020(01)

标签:;  ;  ;  ;  ;  

计算机系统中的 YUV
下载Doc文档

猜你喜欢