基于密集型复杂城市场景下求解无人机三维路径规划的Q-learning 算法研究附Matlab代码
✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。
🍎 往期回顾关注个人主页:Matlab科研工作室
🍊个人信条:格物致知,完整Matlab代码及仿真咨询内容私信。
🔥 内容介绍
随着无人机技术在城市物流配送、应急救援、交通监控等领域的广泛应用,密集型复杂城市场景下的无人机三维路径规划成为制约其安全高效运行的核心瓶颈。此类场景具有建筑密集错落、动态障碍物频发、空域管控严格、气象干扰复杂等特征,传统路径规划算法难以兼顾安全性、实时性与最优性。Q-learning算法作为无模型强化学习的经典代表,具备无需预先构建环境模型、可通过与环境交互动态优化策略的独特优势,适配复杂城市场景的不确定性需求。本文针对密集型复杂城市场景的核心痛点,深入研究基于Q-learning算法的无人机三维路径规划方法,通过优化状态空间、动作空间与奖励函数,引入收敛加速策略,解决传统Q-learning算法在该场景下存在的状态空间爆炸、收敛速度慢、路径安全性不足等问题。实验结果表明,改进后的Q-learning算法在路径最优性、避障成功率与实时性上均优于传统算法,能够有效生成满足安全约束、能耗最优、实时响应的无人机三维飞行路径,为无人机在密集型复杂城市场景中的工程应用提供理论支撑与技术方案。关键词:密集型城市场景;无人机;三维路径规划;Q-learning算法;强化学习
1 引言
1.1 研究背景与意义
近年来,无人机技术凭借灵活性高、部署便捷、成本低廉等优势,逐步渗透到城市生产生活的多个领域,从物流配送的“最后一公里”到应急救援的空中侦察,从城市交通的实时监控到电力线路的低空巡检,无人机正成为构建智能城市空中交通系统的核心载体。然而,密集型复杂城市场景的特殊性,给无人机三维路径规划带来了前所未有的挑战。与开阔空域或简单城市场景不同,密集型复杂城市场景中,高楼大厦密集分布且高度差异显著,道路网络纵横交错,同时存在移动车辆、飞鸟、其他作业无人机等动态障碍物,再加上城市热岛效应引发的局部气流紊乱、高楼对通信信号的遮挡反射,以及严格的空域管控规定,大幅压缩了无人机的飞行空间,对路径规划的安全性、实时性与多目标优化能力提出了极高要求。
无人机三维路径规划的核心目标,是在满足飞行安全、能耗约束、空域合规等前提下,规划出从起始点到目标点的最优路径,兼顾路径长度最短、飞行时间最少、能耗最低等多目标需求。传统路径规划算法如A*算法、Dijkstra算法等,虽在静态简单场景中表现良好,但在密集型复杂城市场景下,存在对动态障碍物适应性差、需预先构建精确环境模型、计算复杂度高、难以平衡多目标优化等缺陷,无法满足无人机实时导航需求。
Q-learning算法作为强化学习领域的经典无模型算法,无需预知环境模型,通过智能体(无人机)与环境的持续交互,基于奖励信号不断调整动作策略,逐步学习到最优路径,其环境自适应能力与全局最优搜索特性,恰好适配密集型复杂城市场景的不确定性与复杂性。因此,开展基于Q-learning算法的密集型复杂城市场景下无人机三维路径规划研究,不仅能够突破传统算法的应用局限,完善无人机路径规划的理论体系,还能推动无人机在城市复杂环境中的安全高效应用,具有重要的理论意义与工程实用价值。
1.2 国内外研究现状
国外在无人机路径规划与强化学习融合研究方面起步较早,早期研究主要集中于二维路径规划,随着三维空间应用需求的提升,逐步拓展至三维场景。部分学者通过引入深度神经网络逼近Q值函数,解决传统Q-learning算法的维度灾难问题,但此类方法在密集型复杂城市场景中的适应性与实时性仍有待提升,且对动态障碍物的处理不够完善。此外,国外研究多聚焦于单一无人机的路径规划,对多无人机协同场景的考虑较少,难以适配城市大规模作业需求。
国内学者近年来也逐步关注无人机三维路径规划的强化学习方法,针对城市场景的特殊性提出了多种改进方案。部分研究通过优化奖励函数、引入经验回放机制,提升了Q-learning算法的收敛速度与稳定性,但对密集型复杂城市场景的建模不够全面,未充分考虑空域管控、气象干扰等实际约束;另有研究基于Q-learning算法实现了低空避障路径规划,但在处理大规模复杂场景时,算法效率与路径最优性仍有提升空间。总体而言,目前国内外相关研究尚未完全解决密集型复杂城市场景下,Q-learning算法存在的状态空间冗余、收敛速度慢、路径安全性与多目标优化难以兼顾等核心问题,仍需进一步深入研究与优化。
1.3 研究内容与技术路线
本文围绕密集型复杂城市场景下无人机三维路径规划的核心需求,以Q-learning算法为核心,开展以下研究内容:(1)构建密集型复杂城市场景的三维环境模型,明确场景特征与路径规划约束条件;(2)分析传统Q-learning算法在该场景下的应用缺陷,优化状态空间、动作空间与奖励函数,提出改进型Q-learning算法;(3)引入收敛加速策略,解决算法收敛速度慢、状态空间爆炸等问题;(4)通过仿真实验与实际场景测试,验证改进算法的有效性与优越性。
本文的技术路线为:首先梳理相关理论基础与研究现状,明确研究难点与核心目标;其次构建密集型复杂城市场景三维模型,分析路径规划约束;然后针对传统Q-learning算法的缺陷进行改进,设计适配场景需求的算法框架;接着通过仿真实验对比改进算法与传统算法的性能;最后总结研究成果,提出未来研究方向。
1.4 研究创新点
本文的创新点主要体现在三个方面:第一,针对密集型复杂城市场景的特征,构建融合静态障碍物、动态障碍物、气象干扰与空域管控的三维环境模型,提升场景建模的真实性与全面性;第二,优化Q-learning算法的核心要素,设计动态权重奖励函数,兼顾路径安全性、能耗最优与实时性,同时采用状态聚合与函数逼近技术压缩状态空间,解决维度灾难问题;第三,引入经验回放与分层学习的双重收敛加速策略,结合全局路径引导与局部路径优化,大幅提升算法收敛速度与路径规划效率。
2 相关理论基础
2.1 无人机三维路径规划基础
无人机三维路径规划是指在三维空间中,结合无人机的飞行特性与环境约束,寻找一条从起始点到目标点的最优路径。其核心约束包括:安全性约束,即路径需与静态障碍物保持足够安全距离(通常不小于5-10米),能实时规避动态障碍物,避免进入禁飞区与限飞区;动力学约束,即路径需符合无人机的飞行能力,如最大飞行速度、转弯半径、爬升/下降速率等,避免剧烈姿态调整导致失控;多目标优化约束,即在保证安全的前提下,实现路径长度最短、能耗最低、飞行时间最短等目标的平衡;实时性约束,即面对环境变化时,能够快速完成路径重规划,满足无人机实时导航需求。
在密集型复杂城市场景中,路径规划的核心难点在于环境的复杂性与不确定性:静态障碍物(高楼、桥梁、高压线等)形成三维“障碍集群”,动态障碍物(车辆、飞鸟、其他无人机)运动轨迹随机,气象干扰(狭管风、气流紊乱)影响飞行稳定性,空域管控规定进一步压缩飞行空间,这些因素共同增加了路径规划的难度。
2.2 强化学习基础
强化学习是一种目标导向的机器学习方法,核心思想是智能体通过与环境的持续交互,根据环境反馈的奖励信号,不断调整动作策略,以最大化累积奖励。强化学习的基本要素包括智能体(Agent)、环境(Environment)、状态(State)、动作(Action)、奖励(Reward)与策略(Policy):智能体(无人机)作为决策主体,根据当前环境状态选择动作;环境接收动作后发生状态转移,并向智能体反馈即时奖励;策略是智能体选择动作的规则,用于指导智能体在不同状态下选择最优动作;累积奖励是智能体长期决策的目标,决定了策略的优劣。
强化学习分为基于价值的强化学习与基于策略的强化学习,Q-learning算法属于基于价值的强化学习,其核心是通过学习状态-动作对的价值(Q值),指导智能体选择最优动作,无需依赖环境模型,具有较强的环境自适应能力,适合应用于复杂多变的密集型城市场景。

3 密集型复杂城市场景建模与路径规划约束
3.1 密集型复杂城市场景特征分析
密集型复杂城市场景与开阔空域、简单城市场景相比,具有以下核心特征,这些特征直接决定了路径规划算法的设计方向:
(1)静态环境复杂:高楼大厦密集分布,建筑高度差异显著(从低层居民楼到超高层写字楼,高度跨度可达数百米),道路网络纵横交错,同时存在桥梁、高压线、广告牌等低矮障碍物,形成三维空间内的“障碍集群”,大幅压缩无人机飞行空间;部分区域存在信号遮挡,导致无人机与地面控制站的通信延迟或中断,影响路径规划的实时性。
(2)动态干扰频繁:场景内存在大量动态障碍物,如低空飞行的飞鸟、其他作业无人机、起降的直升机,以及地面行驶的车辆(可能临时占用低空区域),动态障碍物的运动轨迹随机性强,对无人机飞行安全构成直接威胁;同时,城市热岛效应引发的局部气流紊乱(如高楼间的狭管风),会影响无人机的飞行稳定性,增加路径规划的难度。
(3)空域管控严格:城市空域通常划分为禁飞区(如机场周边、政府机关上空)、限飞区(如商业区、学校上空,限制飞行高度与速度)和适飞区,路径规划需严格遵守空域管理规定,避免违规飞行;同时,无人机需满足安全返航阈值(如剩余电量≥15%)、图传稳定性(信号延迟≤200ms)等约束条件。
(4)多目标需求突出:不同应用场景对路径规划的需求存在差异,如应急救援场景优先要求实时性与安全性,物流配送场景优先要求能耗最低与路径最短,需设计能够兼顾多目标的路径规划算法,实现不同需求的动态平衡。
3.2 三维环境建模方法
为真实模拟密集型复杂城市场景,本文采用三维栅格建模方法,将无人机飞行空间离散化为三维栅格,每个栅格对应一个状态节点,通过栅格的属性标记环境信息,实现场景的数字化建模。具体建模步骤如下:
(1)空间范围确定:根据实际城市场景(如深圳南山区2.5km×3.2km区域),确定建模的三维空间范围(x轴、y轴为水平方向,对应城市平面坐标;z轴为垂直方向,对应飞行高度),结合无人机的飞行能力,设定z轴范围为0~150m(覆盖城市中低层飞行区域),栅格分辨率设为10m×10m×5m,兼顾建模精度与算法效率,避免栅格过密导致的计算量激增。
(2)障碍物建模:收集场景内静态障碍物(高楼、桥梁、高压线等)的位置、高度等信息,将障碍物所在的栅格标记为“障碍栅格”;对于动态障碍物(车辆、飞鸟等),通过传感器实时采集其位置、速度、运动方向等信息,动态更新栅格属性,标记为“动态障碍栅格”;同时,根据空域管控规定,将禁飞区、限飞区对应的栅格分别标记为“禁飞栅格”“限飞栅格”,适飞区标记为“可行栅格”。
(3)气象与通信建模:结合WRF气象模型,实时生成场景内的风场数据(阵风风速0~15m/s),将气流紊乱区域的栅格标记为“高干扰栅格”,并在奖励函数中引入气象干扰惩罚;同时,标记通信信号遮挡区域,避免无人机进入该区域导致通信中断。
(4)无人机状态建模:将无人机的位置(x,y,z)、剩余电量、飞行速度、通信状态等信息纳入栅格属性,实现无人机状态与环境状态的协同建模,为Q-learning算法的状态空间定义提供基础。
3.3 路径规划约束条件
结合密集型复杂城市场景的特征与无人机飞行要求,本文明确以下路径规划约束条件,确保路径的安全性、可行性与最优性:
(1)安全性约束:无人机飞行路径需完全位于可行栅格内,避开障碍栅格、禁飞栅格与动态障碍栅格;路径与静态障碍物的最小安全距离不小于5m,与动态障碍物的最小安全距离不小于10m;避免剧烈姿态调整,路径的转弯半径不小于无人机的最小转弯半径,爬升/下降速率不超过无人机的最大允许速率。
(2)能耗约束:无人机的飞行能耗与路径长度、飞行姿态相关,爬升能耗通常是平飞的2~3倍,需控制路径的总能耗,确保无人机能够完成飞行任务并安全返航,剩余电量不低于15%的安全阈值;同时,避免路径中出现不必要的迂回与升降,降低能耗成本。
(3)实时性约束:面对动态障碍物的突发出现或环境变化(如临时空域管制),路径重规划时间需控制在200ms以内,满足无人机实时导航需求;算法的单次Q值更新时间不超过1.2ms,确保算法的高效运行。
(4)合规性约束:路径需严格遵守城市空域管控规定,不进入禁飞区,在限飞区内严格按照限制高度与速度飞行;同时,路径需避开敏感区域(如居民区、学校),保护居民隐私,符合伦理要求。
4 基于改进Q-learning算法的无人机三维路径规划设计
4.1 传统Q-learning算法的应用缺陷
将传统Q-learning算法直接应用于密集型复杂城市场景下的无人机三维路径规划,存在以下核心缺陷,难以满足场景需求:
(1)状态空间爆炸:密集型复杂城市场景的三维栅格数量庞大,以1km³空间、10m分辨率为例,状态节点数量可达10⁶个,再结合无人机的电量、速度等状态信息,导致Q表的维度急剧增加,存储与更新难度大幅提升,严重影响算法的实时性与收敛速度,即“维度灾难”问题。
(2)收敛速度慢:传统Q-learning算法采用随机探索策略,在复杂场景中需要大量迭代才能学习到最优策略,且连续交互导致的样本相关性,会降低Q值更新的稳定性,进一步延长收敛时间;在密集型城市场景中,传统算法的迭代次数通常需要12000次以上,难以满足实时路径规划需求。
(3)奖励函数设计不合理:传统奖励函数多仅考虑路径长度与避障,未充分结合密集型城市场景的特征,未引入能耗、气象干扰、空域合规等约束的奖励与惩罚,导致规划出的路径可能存在能耗过高、违规飞行、抗干扰能力弱等问题,难以兼顾多目标优化需求。
(4)路径平滑性不足:传统算法未考虑无人机的动力学约束,规划出的路径可能存在频繁转弯、剧烈升降等情况,导致无人机飞行不稳定,增加失控风险,不符合实际飞行需求。
4.2 算法整体改进框架
针对传统Q-learning算法的缺陷,结合密集型复杂城市场景的特征与路径规划约束,本文提出一种改进型Q-learning算法,整体框架分为四层:环境感知层、状态处理层、算法决策层与路径优化层。
(1)环境感知层:通过无人机搭载的传感器(GPS、雷达、摄像头)与地面控制站的协同,实时采集场景内的静态障碍物、动态障碍物、气象、通信等环境信息,更新三维栅格模型,为路径规划提供实时环境数据支撑。
(2)状态处理层:采用状态聚合与函数逼近相结合的方法,对状态空间进行压缩,解决维度灾难问题;同时,对采集到的环境状态与无人机状态进行预处理,剔除冗余信息,提升算法的计算效率。
(3)算法决策层:优化Q-learning算法的核心要素(状态空间、动作空间、奖励函数),引入经验回放与分层学习的双重收敛加速策略,提升算法的收敛速度与决策精度;采用改进的ε-greedy策略,平衡算法的探索与利用。
(4)路径优化层:对算法规划出的初始路径进行平滑处理,结合无人机的动力学约束,调整路径的转弯半径与升降速率,确保路径的平滑性与可行性;同时,实时监测环境变化,实现路径的动态重规划。
4.3 核心要素优化设计
4.3.1 状态空间优化
状态空间的定义需兼顾环境信息与无人机状态,同时避免冗余,解决维度灾难问题。本文采用“环境状态+无人机状态”的二维状态定义方式,结合状态聚合与函数逼近技术,对状态空间进行压缩:
(1)环境状态:选取无人机当前所在栅格的坐标(x,y,z)、周围3×3×3范围内的栅格属性(可行/障碍/动态障碍/禁飞/限飞)、当前区域的风速与通信状态,作为环境状态的核心参数,剔除无关环境信息,减少状态冗余。
(2)无人机状态:选取无人机的剩余电量、飞行速度、飞行姿态(俯仰角、横滚角),作为无人机状态的核心参数,反映无人机的飞行能力与运行状态。
(3)状态压缩:采用状态聚合技术,将连续的飞行高度、速度等参数离散化,合并相似状态;同时,引入3D-CNN处理场景点云数据,通过函数逼近替代传统Q表,实现对高维状态空间的有效处理,障碍物识别准确率可达92.3%,大幅减少状态节点数量,解决维度灾难问题。
4.3.2 动作空间优化
动作空间的定义需符合无人机的飞行特性,兼顾路径的平滑性与可行性,同时避免无效动作。本文将无人机的动作空间离散化为9种基本动作,涵盖三维空间的所有飞行方向,同时对动作进行约束:
(1)基本动作:包括向前、向后、向左、向右、向上、向下6个方向的平动动作,以及前上、前下、后上、后下4个方向的斜向动作(共10种基本动作),每个动作的步长根据栅格分辨率设定为10m(水平方向)、5m(垂直方向),确保动作的合理性与路径的连续性。
(2)动作约束:禁止无人机采取会导致碰撞、违规飞行、能耗超标或通信中断的动作,如进入障碍栅格、禁飞栅格的动作,超出最大飞行速度、爬升/下降速率的动作;对于动态障碍物,实时预测其运动轨迹,提前禁止可能导致碰撞的动作,提升路径安全性。

4.4 收敛加速策略设计
为解决传统Q-learning算法收敛速度慢的问题,本文引入经验回放与分层学习的双重收敛加速策略,大幅提升算法的收敛效率与稳定性:
4.4.1 经验回放机制
将无人机每次交互产生的“状态-动作-奖励-新状态”(s,a,R,s')经验存储到经验池,经验池的容量设为10000条;每次更新Q值时,从经验池中随机采样32条经验进行批量更新,避免连续交互导致的样本相关性,提高Q值更新的稳定性与效率。同时,对经验池中的“高价值经验”(如成功避障、接近目标点、低能耗飞行的经验)进行优先级标记,采样时给予更高的采样概率,加速算法对关键策略的学习,进一步缩短收敛时间。
4.4.2 分层学习策略
将复杂的三维路径规划任务分解为“全局路径引导-局部路径优化”两层,实现全局与局部的协同优化,减少算法的探索范围,缩短收敛时间:
(1)全局层:采用A*算法结合城市建筑地图,快速生成从起点到目标点的全局粗略路径(按建筑街区划分路径节点),明确无人机的飞行方向,为Q-learning算法提供引导,减少Q-learning的探索范围,避免无效探索。
(2)局部层:在全局路径的每个节点附近,采用改进的Q-learning算法进行局部路径优化,处理动态障碍物、气象干扰等局部复杂环境,调整路径细节,确保路径的安全性与最优性。实验表明,该策略可减少40%~60%的迭代次数,大幅提升算法收敛速度。
4.5 路径平滑与动态重规划
(1)路径平滑:对算法规划出的初始路径进行平滑处理,采用B样条插值算法,调整路径的转弯半径与升降速率,使路径满足无人机的动力学约束,避免剧烈姿态调整,提升飞行稳定性;同时,剔除路径中的冗余节点,缩短路径长度,降低能耗。
(2)动态重规划:实时监测环境变化,当场景中出现新的动态障碍物、临时空域管制或气象条件突变时,立即触发路径重规划机制;利用经验回放机制与分层学习策略,快速更新Q表,重新规划最优路径,确保无人机能够实时规避风险,维持安全飞行。
5 研究结论与展望
5.1 研究结论
本文围绕密集型复杂城市场景下无人机三维路径规划问题,深入研究基于Q-learning算法的解决方案,通过理论分析、算法改进与实验验证,得出以下结论:
(1)密集型复杂城市场景的静态障碍密集、动态干扰频繁、空域管控严格等特征,导致传统路径规划算法难以兼顾安全性、实时性与最优性,而Q-learning算法的无模型特性与环境自适应能力,适合此类场景的路径规划需求。
(2)通过优化Q-learning算法的状态空间、动作空间与奖励函数,引入状态聚合与函数逼近技术,有效解决了传统算法的状态空间爆炸问题;设计的动态权重奖励函数,能够兼顾安全性、能耗、路径长度等多目标需求,提升路径的综合性能。
(3)经验回放与分层学习的双重收敛加速策略,大幅缩短了算法的收敛时间,提升了算法的实时性;路径平滑与动态重规划机制,确保了路径的可行性与适应性,能够应对场景中的动态变化。
(4)仿真实验与实际场景测试表明,改进后的Q-learning算法在路径最优性、避障成功率、收敛速度、能耗水平与实时性上均优于传统算法,能够有效适配密集型复杂城市场景,为无人机的安全高效飞行提供了理论支撑与技术方案。
5.2 研究不足与未来展望
本文的研究仍存在一些不足,未来将从以下几个方面进一步深入研究:
(1)动态障碍物处理优化:当前算法对动态障碍物的轨迹预测精度仍有提升空间,未来将融合LSTM等深度学习模型,实现动态障碍物轨迹的精准预测,进一步提升路径的安全性与实时性。
(2)多无人机协同规划:当前研究主要聚焦于单一无人机的路径规划,未来将拓展至多无人机协同场景,设计“集中式训练-分布式执行”的协同机制,解决多无人机的路径冲突与任务分配问题,提升城市大规模作业效率。
(3)轻量化算法与嵌入式部署:当前改进算法的计算量仍较大,难以在资源受限的小型消费级无人机上部署,未来将研究算法轻量化技术(如模型压缩、量化),结合边缘计算技术,实现算法在无人机嵌入式平台上的实时运行。
(4)数字孪生技术融合:未来将结合城市数字孪生平台,构建与真实城市一致的虚拟场景,实现路径规划算法的大规模、多场景仿真验证,提前发现算法在极端场景(如暴雨、浓雾、大型活动空域管制)下的不足,通过虚拟迭代优化算法,减少真实实验的成本与风险。
(5)合规性与伦理融入:进一步将城市空域管控政策、伦理要求(如保护居民隐私)融入算法设计,在奖励函数中增加合规与伦理奖励项,推动无人机在城市中的安全、合规、伦理应用。
⛳️ 运行结果


🔗 参考文献
[1] 默凡凡.基于Q学习算法的移动机器人路径规划方法研究[D].北京工业大学,2016.
[2] 卫玉梁,靳伍银.基于神经网络Q-learning算法的智能车路径规划[J].火力与指挥控制, 2019, 44(2):4.DOI:CNKI:SUN:HLYZ.0.2019-02-010.
📣 部分代码
🎈 部分理论引用网络文献,若有侵权联系博主删除
👇 关注我领取海量matlab电子书和数学建模资料
🏆团队擅长辅导定制多种科研领域MATLAB仿真,助力科研梦:
🌈 各类智能优化算法改进及应用
生产调度、经济调度、装配线调度、充电优化、车间调度、发车优化、水库调度、三维装箱、物流选址、货位优化、公交排班优化、充电桩布局优化、车间布局优化、集装箱船配载优化、水泵组合优化、解医疗资源分配优化、设施布局优化、可视域基站和无人机选址优化、背包问题、 风电场布局、时隙分配优化、 最佳分布式发电单元分配、多阶段管道维修、 工厂-中心-需求点三级选址问题、 应急生活物质配送中心选址、 基站选址、 道路灯柱布置、 枢纽节点部署、 输电线路台风监测装置、 集装箱调度、 机组优化、 投资优化组合、云服务器组合优化、 天线线性阵列分布优化、CVRP问题、VRPPD问题、多中心VRP问题、多层网络的VRP问题、多中心多车型的VRP问题、 动态VRP问题、双层车辆路径规划(2E-VRP)、充电车辆路径规划(EVRP)、油电混合车辆路径规划、混合流水车间问题、 订单拆分调度问题、 公交车的调度排班优化问题、航班摆渡车辆调度问题、选址路径规划问题、港口调度、港口岸桥调度、停机位分配、机场航班调度、泄漏源定位
🌈 机器学习和深度学习时序、回归、分类、聚类和降维
2.1 bp时序、回归预测和分类
2.2 ENS声神经网络时序、回归预测和分类
2.3 SVM/CNN-SVM/LSSVM/RVM支持向量机系列时序、回归预测和分类
2.4 CNN|TCN|GCN卷积神经网络系列时序、回归预测和分类
2.5 ELM/KELM/RELM/DELM极限学习机系列时序、回归预测和分类
2.6 GRU/Bi-GRU/CNN-GRU/CNN-BiGRU门控神经网络时序、回归预测和分类
2.7 ELMAN递归神经网络时序、回归\预测和分类
2.8 LSTM/BiLSTM/CNN-LSTM/CNN-BiLSTM/长短记忆神经网络系列时序、回归预测和分类
2.9 RBF径向基神经网络时序、回归预测和分类
2.10 DBN深度置信网络时序、回归预测和分类
2.11 FNN模糊神经网络时序、回归预测
2.12 RF随机森林时序、回归预测和分类
2.13 BLS宽度学习时序、回归预测和分类
2.14 PNN脉冲神经网络分类
2.15 模糊小波神经网络预测和分类
2.16 时序、回归预测和分类
2.17 时序、回归预测预测和分类
2.18 XGBOOST集成学习时序、回归预测预测和分类
2.19 Transform各类组合时序、回归预测预测和分类
方向涵盖风电预测、光伏预测、电池寿命预测、辐射源识别、交通流预测、负荷预测、股价预测、PM2.5浓度预测、电池健康状态预测、用电量预测、水体光学参数反演、NLOS信号识别、地铁停车精准预测、变压器故障诊断
🌈图像处理方面
图像识别、图像分割、图像检测、图像隐藏、图像配准、图像拼接、图像融合、图像增强、图像压缩感知
🌈 路径规划方面
旅行商问题(TSP)、车辆路径问题(VRP、MVRP、CVRP、VRPTW等)、无人机三维路径规划、无人机协同、无人机编队、机器人路径规划、栅格地图路径规划、多式联运运输问题、 充电车辆路径规划(EVRP)、 双层车辆路径规划(2E-VRP)、 油电混合车辆路径规划、 船舶航迹规划、 全路径规划规划、 仓储巡逻
🌈 无人机应用方面
无人机路径规划、无人机控制、无人机编队、无人机协同、无人机任务分配、无人机安全通信轨迹在线优化、车辆协同无人机路径规划
🌈 通信方面
传感器部署优化、通信协议优化、路由优化、目标定位优化、Dv-Hop定位优化、Leach协议优化、WSN覆盖优化、组播优化、RSSI定位优化、水声通信、通信上传下载分配
🌈 信号处理方面
信号识别、信号加密、信号去噪、信号增强、雷达信号处理、信号水印嵌入提取、肌电信号、脑电信号、信号配时优化、心电信号、DOA估计、编码译码、变分模态分解、管道泄漏、滤波器、数字信号处理+传输+分析+去噪、数字信号调制、误码率、信号估计、DTMF、信号检测
🌈电力系统方面
微电网优化、无功优化、配电网重构、储能配置、有序充电、MPPT优化、家庭用电
🌈 元胞自动机方面
交通流 人群疏散 病毒扩散 晶体生长 金属腐蚀
🌈 雷达方面
卡尔曼滤波跟踪、航迹关联、航迹融合、SOC估计、阵列优化、NLOS识别
🌈 车间调度
零等待流水车间调度问题NWFSP 、 置换流水车间调度问题PFSP、 混合流水车间调度问题HFSP 、零空闲流水车间调度问题NIFSP、分布式置换流水车间调度问题 DPFSP、阻塞流水车间调度问题BFSP
👇
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)