针对算力网络中终端用户计算能力不足及边缘节点算力分配不均的问题, 提出一种以激励机制为基础的无人机(UAV)协同终端直连(D2D)边缘计算方案。首先, 在满足计算资源、发射功率、计算资源单价等限制条件下, 通过联合优化任务卸载比例、计算资源限制量、UAV飞行轨迹、UAV和用户的发射功率以及计算资源出售单价, 提出一个系统收益最大化问题。其次, 利用近端策略优化(PPO)确定用户卸载和购买策略, 通过在多个时间步骤上迭代优化策略最大化累积奖励, 并引入剪切项以限制策略更新的幅度, 以确保求解算法的稳定性。仿真结果显示, 基于PPO的系统收益最大化算法相比基线算法具有更好的收敛性, 并能够有效提升系统总收益。
卫星网络具有覆盖范围广、机动性强及功耗超低等优势, 可作为地面通信网络的重要补充和延伸, 推动构建空天地一体化网络。然而, 随着卫星业务的开放普及, 卫星网络流量激增且日益复杂, 给卫星网络的管理及业务调度带来了严峻挑战。显然, 设计一种高效的网络流量分类方法, 给不同类型的卫星网络流量分配合理的计算资源, 成为缓解卫星网络压力的关键。基于端口、载荷、统计以及行为的传统网络流量分类方法存在有效性、隐私性等问题, 已经不再满足复杂网络业务的需求。随着大模型的发展, 各种大模型技术得到广泛应用。因此, 为提升卫星网络的业务调度效率并优化卫星网络算力, 提出一种基于全局感知模块(GPM)-ViT(Vision Transformer)模型的网络流量分类方法。基于网络流量数据, 将流量会话数据转化为灰度图片, 经过特征提取模块, 充分提取图片全局和局部信息。将处理后的数据输入ViT, 利用其多头注意力机制提取数据关联信息, 增强分类能力。实验结果表明, GPM-ViT模型的分类准确率达到97.86%, 相比基准模型有所提升。
在空天地多层次算力网络背景下, 针对数字孪生逻辑靶场中因负载数据复杂性和非平稳特征带来的精准预测挑战, 提出融合格拉姆转场(GAF)、卷积神经网络(CNN)、通道注意力机制的压缩与激励网络(SENet)和门控循环单元(GRU)的GCSG模型。GCSG模型通过GAF将一维负载数据转换为二维图像, 利用CNN提取局部特征, 使用SENet优化特征重要性, 采用GRU捕捉时序特征, 实现了高效的特征融合和精准预测。此外, GCSG模型采用融合麻雀搜索算法(SSA)的变分模态分解(VMD)对负载数据进行平稳化处理, 进一步提高了预测性能。实验结果表明, GCSG模型在不同数据长度下均表现出优异的预测精度和稳定性, 且在多步预测任务中同样表现突出。因此, GCSG模型显著提升了负载数据的预测精度, 为空天地算力网络中的数字孪生系统负载预测提供了强有力的解决方案。
现有基于强化学习的交通信号控制方法主要使用历史交通状态和当前时间步的实时交通状态来确定下一个时间步的控制策略, 造成控制策略始终滞后于交通状态一个时间步。为了解决该问题, 提出一种基于融合交通状态预测的深度强化学习优势演员评论家(A2C)的交通信号控制方法。首先, 为了获取未来时间步的交通状态, 以确保制定的控制策略能够更精准地响应实时交通状态下的决策需求, 设计一个长短时记忆(LSTM)网络预测路网未来时间步的交通状态。然后, 为了提高输入深度强化学习模型中数据的准确性和鲁棒性, 设计一个卡尔曼滤波器对采集的历史交通状态数据和LSTM网络预测的未来交通状态数据进行融合。其次, 为了使深度强化学习模型能够更全面地理解交通流量中包含的时间依赖关系, 并实现更高效和稳定的交通信号控制决策, 提出一种融合双向LSTM网络的A2C算法。最后, 基于微观交通仿真(SUMO)平台的仿真测试结果表明, 与传统交通信号控制方法和基于深度强化学习A2C的交通信号控制方法相比, 该方法在低峰、平峰和高峰两种不同交通流量状态下均能够取得更好的交通信号控制效益。
在6G时代, 空天地一体化网络(SAGIN)可以为物联网(IoT)设备提供无处不在的覆盖, 能有效解决当前网络架构覆盖能力不足的问题。多接入边缘计算(MEC)是一种非常重要的技术, 可以进一步增强SAGIN的服务能力, 其中MEC在有效降低任务执行延迟和系统能耗方面表现出显著的能力。提出一种支持MEC的SAGIN架构, 其中卫星和多架无人机(UAV)作为边缘节点, 为IoT设备就近提供算力。通过IoT设备的任务分割以及UAV和卫星的带宽分配, 实现网络平均总能耗的最小化。将网络动态性问题表述为马尔可夫决策过程(MDP)问题, 提出一种基于深度确定性策略梯度(DDPG)的自适应决策算法对其进行求解。仿真结果表明, 该算法在最小化网络能耗和DDPG代理累计奖励最大化方面表现出良好的性能。
为满足卫星数据处理、车辆远程控制等快速响应和大范围覆盖的应用场景需求, 聚焦于采用分层控制和人工智能技术的方法, 设计一种空天地一体化算力网络资源调度机制。将空天地网络划分为3个域, 分别部署域控制器, 负责本地域的资源管理, 同时通过卫星和无人机的覆盖范围进行地面区域划分, 确保地面区域能够得到有效的服务保障, 以实现高效的数据传输和任务处理。为了优化空天地算力网络资源利用率, 引入多智能体强化学习算法, 对不同场景下产生的计算任务进行实时处理, 将每个域控制器视为具备任务调度和资源分配能力的智能体, 在满足时延和能耗的约束下, 通过协同学习和分布式决策实现计算任务智能调度和高效分配。实验结果表明, 该机制能够有效提高资源利用率和缩短任务响应时间。
随着各大厂商对大模型应用部署需求的激增, 深度学习编译器TVM(Tensor Virtual Machine)的单一量化方式精度下降, 已无法满足部署需求。设计并构建一种可选粒度的模型量化框架, 具体包括逐层与逐通道量化流程的支持, 以及阈值搜索与自适应舍入优化算法的实现。首先, 基于量化模块“relay.quantize”构建信息标注、阈值校准与量化图实现的框架流程, 并添加粒度属性以显式识别量化方式。其次, 针对预定义校准方法无法确定有效量化信息的问题, 对量化中的阈值校准、权重舍入进行调优, 提高量化后模型精度。实验采用ImageNet数据集对视觉网络进行测试, 针对MobileNetV1新量化方案将8 bit量化后模型精度损失降低到2.3%, 调优后该损失降低到0.7%, 实验结果表明多粒度量化框架可有效降低量化误差。
多智能体深度确定性梯度(MADDPG)算法由深度确定性策略梯度(DDPG)算法扩展而来, 专门针对多智能体环境设计, 算法中每个智能体不仅考虑自身的观察和行动, 还考虑其他智能体的策略, 以更好地进行集体决策, 这种设计显著提升了其在复杂、多变的环境中的性能和稳定性。基于MADDPG算法框架, 设计算法的网络结构、状态空间、动作空间和奖励函数, 实现无人机编队控制。为解决多智能体算法收敛困难的问题, 训练过程中使用课程强化学习将任务进行阶段分解, 针对每次任务不同, 设计层次递进的奖励函数, 并使用人工势场思想设计稠密奖励, 使得训练难度大大降低。在自主搭建的软件在环(SITL)仿真环境中, 通过消融、对照实验, 验证了MADDPG算法在多智能体环境中的有效性和稳定性。最后进行实机实验, 在现实环境中进一步验证了所设计算法的实用性。
物联网(IoT)中激增的流量, 影响了传感器等设备的数据传输。利用软件定义网络(SDN)技术可以优化网络性能, 提高数据传输质量。然而, 物联网中流量等网络状态的不断变化会影响软件定义网络控制平面的性能。研究软件定义物联网(SD-IoT)中的动态控制器部署问题, 以在流量变化时保证控制平面性能。考虑到物联网节点的能耗以及数据传输的特点, 在部署控制器时, 综合考虑延迟、控制可靠性以及能耗的影响, 并将该问题构建为马尔可夫博弈过程。为了同时兼顾单一控制器性能以及控制平面整体性能, 采用多智能体深度强化学习求解该问题。在部署阶段利用动作掩码屏蔽部分节点, 避免将控制器部署在性能不足或者供能不方便的节点。仿真实验表明, 与基于Louvain社区划分和基于单智能体深度Q网络(DQN)的部署算法相比, 所提算法可以更好地找到高性能的部署方案。
文本检错是自然语言处理的研究方向之一, 目标是自动检测输入文本中错误单词的位置和类型, 该任务不仅在文本处理的各种下游环节中应用广泛, 而且关系到日常生活中方方面面。目前, 针对英文、中文的文本检错模型已经能够达到较高的准确率, 然而, 因越南语语料资源稀缺、人工标注数据不足, 面向越南语的文本检错任务深受训练样本匮乏和低质量的困扰。此外, 还存在不同场景来源的文本包含错误类型不同, 以及错误类型数量不均衡的情况, 导致通用文本检错模型无法学习到特定错误类型的检测方法, 检错能力较弱。基于上述问题, 首先, 提出一种面向多源文本的越南语文本检错语料库构建方法, 利用越南语光学字符识别(OCR)、越南语语音识别和越南语-英语翻译数据集构建初始语料库, 并根据多源越南语检错语料生成方法得到错误语料, 通过检错语料自动标注算法获得带标签的训练数据。其次, 提出融入多源信息特征的越南语文本检错序列标注模型, 在多语言来自变换器的双向编码器表征量(BERT)编码端融入场景特征, 使模型能够根据当前输入文本场景适应错误类型。实验结果表明, 该方法相比基线模型, F0.5值和F1值提升了1.91和1.80百分点, 并进一步验证了模型各组件的必要性以及数据集构建方法的有效性。
近年来, 基于神经网络架构的推荐系统取得了显著成功, 但在处理富含流行偏见和交互噪声的数据时, 未能达到期望的效果。对比学习作为一种从无标记数据中学习的新兴技术备受关注, 为解决这一问题提供了潜在方案。提出一种端到端的图对比推荐算法AMV-CL。首先, 基于节点的潜在表征构建用户-项目交互图的互补图; 其次, 引入自适应增强技术, 分别从节点和边缘角度生成多视图数据, 并通过重参数化网络调整图结构; 最后, 规范化对比损失中锚节点的正样本来源, 同时利用多视图对比损失来学习用户/项目的潜在表征。在公共数据集上的实验结果显示, 相较于最优基准方法SimGCL, AMV-CL在评价指标Recall@20和NDCG@20上的提升最高可达到12.03%和12.64%, 表明所提方法能够有效提升推荐性能。
近年来, 图神经网络(GNN)广泛-应用于跨域自然语言生成结构化查询语言(SQL)语句(Text-to-SQL)的编码器。基于GNN的编码过程通过捕获数据库架构和自然语言问题之间的关联信息, 大幅提高生成模型在跨域SQL语句生成下的泛化性。现有的GNN方法在异构图结构编码学习过程中存在缺陷, 以节点为中心进行数据库架构和自然语言问题的链接预测, 在复杂语义场景下容易出现错配。针对这一问题, 提出一种面向跨域Text-to-SQL的异构图学习框架。框架针对异构图以边为中心学习的过程提出关系边子图构建和边超图注意力网络, 有效学习异构图中关系边与节点的差异化结构特征, 实现复杂语义场景下SQL语句正确生成。为验证所提框架的有效性, 在多个跨域Text-to-SQL数据集上进行充分实验对比。结果表明, 相较于基线, 该框架在F1值和完全匹配准确率(EMA)指标上均取得显著提升, 且在复杂跨域场景下具有更强的泛化性。
知识图谱关系推理旨在推理实体间缺失的链接, 当前知识图谱关系推理模型在小样本关系推理上表现不佳, 且难以对训练集中未出现的实体进行关系推理。针对以上问题, 提出一种基于图神经网络(GNN)与损失权重元学习的知识图谱小样本关系归纳推理模型。模型利用图神经网络学习目标实体间的子图模式, 从而泛化到新实体的关系推理。通过路径掩码策略降低模型对特定子图模式的依赖, 捕捉数据中的关键特征和模式, 从而提高模型归纳推理泛化能力。基于元学习方法引入分布均衡的元数据集来学习一个自适应损失函数, 调整不同样本的损失权重, 使模型更关注难以预测的小样本关系, 从而提高模型对小样本关系预测的准确度。最后, 在归纳链接预测基准数据集FB15k-237和NELL-995中过滤掉没有子图的三元组, 并进行链接预测和三元组分类任务, 同时对测试集中属于小样本关系的三元组进行评价。实验结果表明, 所提模型在归纳推理基准数据集上具有较好的表现, 并且在7个小样本数据集上的性能比目前最优的模型平均提升1%左右。
密集行人检测是公共智能监控的关键技术, 其采用目标检测方法对视频中的行人位置和数量进行检测, 进而实现对视频中人群的智能监控。在人员密集场景下因遮挡和行人的目标太小造成漏检。为此, 提出一种改进YOLOv8检测模型Crowd-YOLOv8。首先, 在主干网络使用nostride-Conv-SPD模块, 增强对图像小目标特征等细粒度信息的提取能力; 其次, 在YOLOv8网络的颈部引入小目标检测头和CARAFE上采样算子对各尺度特征进行融合, 以提高在小目标情况下的检测效果。实验结果表明, 所提模型在CrowdHuman数据集上mAP@0.5和mAP@0.5∶0.95分别取得了84.3%和58.2%的检测效果, 与原YOLOv8n相比分别提高了3.7和5.2百分点; 在WiderPerson数据集上取得了88.4%和67.4%, 与原YOLOv8n相比提高了1.1和1.5百分点。
部分文本中隐喻本体与喻体位置相距较远, 导致模型学习文本语境信息的难度增大, 以及所提取的特征中重要信息不明显。为此, 提出一种基于全局与局部特征加权融合的隐喻识别模型。首先, 设计了局部特征提取模块(LFEM), 通过对不同范围以及更大感受野下文本局部特征的关注来达到学习词语周围不同距离语境信息的目的; 其次, 使用双向长短时记忆(BiLSTM)与多头注意力构成全局特征提取模块(GFEM), 学习宏观句子级语义信息; 最后, 设计了特征加权融合模块(FWFM), 对提取得到的2种特征进行自适应动态融合, 以较少的噪声获得鲁棒性更强且重要信息更为集中的特征。实验结果表明, 相比RoBERTa+Transformer+GCN模型, 所提模型在VUA ALLPOS、TOEFL ALLPOS以及CCL 3个数据集上的F1值分别提升了1.1、1.2和3.2百分点, 所提模型具有更高的隐喻识别精度。
多维时间序列分类在工业、医疗、金融等领域有着广泛应用, 在工业产品质量控制、疾病预测、金融风险控制等方面发挥着重要作用。多维时间序列时间依赖关系和空间依赖关系同等重要, 传统多维时间序列模型只对时间或空间某一维度重点关注。为此, 提出一种基于预训练递归Transformer-Mixer的多维时间序列分类模型PRTMMTSC。模型基于Transformer-Mixer模块充分学习多维时间序列时间和空间的关联关系。为进一步提升分类模型的性能, 受异常检测模型的启发, 将预训练后的隐藏层特征和残差特征进行融合, 并采用PolyLoss损失函数对模型进行训练。为减少模型训练参数量, 模型中Transformer-Mixer模块采用递归方式构建, 使多层可训练参数量仅为单层Transformer-Mixer参数量。在UEA多维时间数据集上的实验结果表明, 所提模型的性能优于对比模型, 相较于TARNet模型和RLPAM模型的准确率分别提升3.03%和4.69%。在UEA及IF钢夹渣缺陷分类的消融实验验证预训练方式、Transformer-Mixer模块、残差信息及PolyLoss损失函数的有效性。
源包数据排序是科学卫星地面段数据处理的关键步骤。常用的排序方法将待排序的源包相关信息全部加载到内存, 在处理大体量的下行数据时占用内存资源多、执行时间较长, 在多次下行数据拼接时数据量会成倍数增长。此外, 常用的排序方法对异常数据的处理不够全面, 可能导致部分源包排序错误, 进而影响后续的数据分析。针对先进天基太阳天文台(ASO-S)提出了一种新的源包数据拼接与排序策略。该策略在单次下行数据的源包索引排序和多次下行数据的源包索引拼接与排序的处理过程中, 对不同类型异常做出了相应的处理, 并设计了索引信息片段切割再排序算法, 减少多次下行数据拼接后源包重排序、去重计算的数据量。使用多组实验数据对该策略进行了验证与测试, 实验结果表明, 该策略在对时间码跳变等异常数据的处理上源包排序准确率达到100%, 在对多次下行数据拼接处理时减少了内存资源的占用率, 缩短了执行时间, 能够有效提升源包排序的准确率和数据处理效率, 为ASO-S卫星产出高质量科学数据产品奠定了良好基础。
拷贝数变异(CNV)作为一种遗传变异, 广泛存在于人类基因组的基因分布中。CNV检测效率的提升不仅可以为更多的病患提供更加快速精确的CNV检测结果, 大幅降低医疗成本, 同时又有利于药物的研发和临床应用。基于读段深度(RD)的方法是目前最为常用的CNV检测方法, 对RD相关信息的处理时间较长, 在CNV检测中时间占比较高。现有方法无法有效应用于全基因组分析, 存在计算效率较低、检测精度下降的问题。基于RD的CNV检测方法, 提出一种高效的测序数据并行处理方案EPPCNV。在EPPCNV中, 设计2个MapReduce作业串行执行的方法, 实现高效全基因组测序数据的并行处理, 精准地完成RD相关信息的提取; 为充分考虑到GC含量偏差对CNV检测结果的影响, 对测序数据的RDs进行校正处理, 保证最终检测结果的高灵敏度与高精确度; 采用独立于具体CNV检测方法的高适配性数据处理方式, 其最终生成的RD相关信息能够与多种主流CNV检测方法直接结合, 在不改变原方法对CNV区域判定的基础上, 实现方法整体性能的大幅提升。实验结果表明, EPPCNV的综合准确率高, 分别与CNV-LOF、HBOS-CNV以及CNVnator 3种方法直接结合, 能够显著提升原方法的计算效率, 并保证检测结果的高灵敏度与高精确度。对于覆盖深度越高、数据量越大的测序数据, CNV检测方法与EPPCNV结合后计算效率的提升更为显著。
使用一对超球面描述样本分布的双超球支持向量机(THSVM)算法没有考虑样本数据的密度信息, 容易受噪声干扰, 对所有特征赋予相同权重, 忽略了不同特征对分类结果的影响。针对上述问题, 提出了基于加权局部密度的双超球支持向量机(WLDTHSVM)算法。首先, 利用信息增益计算每个特征的权重, 并将特征权重应用到欧氏距离以及核函数的计算中, 降低了不相关或弱相关的特征对样本相似性的影响; 其次, 利用特征加权的欧氏距离, 构造一种新的加权局部密度函数, 不仅考虑了样本点近邻的类别信息, 而且考虑不同特征对样本间距离的影响, 将归一化加权局部密度与误差项结合来增强模型的抗噪声干扰能力; 最后, 用特征加权的决策函数判定测试样本点的所属类别。在人工数据集和UCI数据集上对WLDTHSVM算法的可行性与有效性进行验证, 实验结果表明, WLDTHSVM算法与支持向量机(SVM)、孪生支持向量机(TWSVM)、THSVM等对比算法相比, 在11个UCI数据集上平均准确率最高可提升2.76百分点, 在含噪数据集上具有较好的分类表现。
线性插值是过采样技术中常见的样本合成方法, 缺点是线性合成区域容易提高不同类别样本间的重叠度并降低采样结果的随机性, 难以提升针对不平衡样本集的分类能力。为此, 提出受同轴对称抛物线约束的样本合成方法。首先, 建立一种自适应加权策略, 通过危险度因子与相似度因子为少数类样本赋予权值, 该权值能够决定采样过程中的样本合成方向及合成范围; 然后, 根据少数类样本与对应的样本权值构造一对同轴对称抛物线, 并将这对抛物线相交得到的闭区域作为非线性的样本合成区域; 最后, 在引入新样本时通过该新样本近邻域内巴氏系数的变化情况判断此次采样是否能够有效避免入侵其他类别样本的分布区域, 从而提高采样质量。在UCI机器学习库的6个公共样本集上实验结果表明, 当C4.5作为分类器时, 集成后的过采样方法与原始采样方法相比, 精确率提高7.85百分点, 召回率提高2.87百分点, G-means提高2.00百分点。
随着云计算与空天地海一体化通信网络的深度融合, 各种复杂应用场景的出现使得组合服务的种类和数量急剧增多, 结构也变得复杂。在云网融合环境下, 用户移动设备和边缘服务器等硬件能力有限, 能耗问题成为组合服务进行动态重构不可忽略的重要因素。此外, 传统方法并未考虑空天地海不同场景下用户对不同服务质量(QoS)属性需求的差异性, 使得组合服务的交付结果并不令人满意。为了解决上述问题, 提出一种基于多目标粒子群优化(PSO)的组合服务动态重构方法。该方法首先根据重构原子服务的三维空间地理位置和功能进行聚类, 有效解决在云网融合环境下服务规模庞大情况下的搜索空间爆炸问题; 然后通过能耗计算模型得到服务调用的综合能耗, 并将其作为动态重构的优化目标之一, 结合服务的多种QoS属性进行多目标寻优, 最终生成符合用户需求且能耗较低的重构方案。实验结果表明, 该方法在云网融合环境下节约能耗和应对较大候选服务集规模等方面具有较优性能。
脉冲神经网络(SNN)正日益成为研究和模拟大脑各区功能及其相互关联性的重要方法。为了模拟更大规模的脑区域, 并行分布式计算已成为模拟SNN的必然选择。然而, 随着计算规模的增长, 计算节点间的负载不均衡及通信问题成为影响SNN模拟性能的主要因素。针对分布式计算平台, 现有分区算法还无法找到全局最佳分区并有效地将工作负载映射到计算核心上。因此, 提出一种基于通信和拓扑感知的分区与映射算法, 该算法包括分区和拓扑感知映射2个核心步骤。通过引入能够感知SNN连接的分区方法, 提高计算效率并降低通信延迟; 在拓扑感知映射方法中, 利用通信拓扑图和底层网络信息将工作负载高效地分配到各计算节点上, 最小化跨不同计算核心的通信成本。实验结果表明, 在国家超算济南计算中心的并行计算平台上, 采用96进程规模并行模拟SNN基准测试集时, 相比现有先进的分区框架, 所提方法具有更好的负载均衡和通信性能, 同步时间和通信时间分别减少了40%和7.1%, 最终的模拟总时间缩短了30%。
目前实现动态重构的常用方法是通过片上接口进行配置, 一般采用现场可编程门阵列(FPGA)官方提供的动态重构控制知识产权(IP)核, 并通过系统总线与处理器相连。这种方法会占用较多静态部分的逻辑资源, 并且限制了片上接口的运行频率。针对这些问题, 提出将FPGA抽象为大规模存储器的设计理念, 构建DPRC动态重构控制指令集及配套应用程序编程接口(API), 以优化逻辑资源占用量, 消除缓冲延迟。指令集的实现以原有RV32IMC为基础, 采用微指令序列控制片上接口部分, 通过与数据通路紧密耦合来减少逻辑资源使用量, 使用参数化多周期方案优化时序并确保通用性。实验结果表明, 与传统方法相比, 该系统中动态重构功能相关逻辑资源占用量减少84%, 频率提高312%。相较于原有处理器, 添加扩展指令集后处理器自身资源占用量仅增加5%, 最差情况下扩展部分对时钟周期的影响小于0.2 ns, 表明该动态重构控制方案具有低成本、高主频的特性。
针对一类伺服电机直接驱动油泵的注塑机液控系统, 工业界通常采用PID控制方法进行控制, 但其控制效果较差, 难以达到较高的控制精度。为了改进PID控制, 将模糊控制与PID控制相结合成为一种有效的方法。针对模糊PID算法参数调试过程中存在的操作繁琐、难以找到最优参数组合等问题, 提出一种基于遗传粒子群算法(GAPSO)优化的模糊PID控制方法。对粒子群算法(PSO)进行改进, 提出一种惯性因子随S函数变化的改进PSO算法(SDIF-PSO), 在改进粒子群算法的基础上, 将改进PSO算法与GA算法相结合, 构建基于GAPSO算法优化的模糊PID控制器。利用Matlab/Simulink对注射过程进行仿真, 实验结果表明, 相比于传统的模糊PID控制器以及分别采用改进PSO算法和GA算法优化的模糊PID控制器, 基于GAPSO优化的模糊PID控制器具有响应速度更快、超调量更小、稳态精度更高等优点。
异构多核处理器的任务调度问题已经被证明是一个NP完全问题。为满足复杂应用的计算需求, 提高异构多核处理器的任务调度效率, 提出一种基于进化自适应蝙蝠算法(EABA)的异构多核处理器任务调度算法。首先, 对任务调度问题进行描述, 并建立相应的数学模型; 接着, 设计任务分配编码方案和适应度函数, 将所提算法映射到离散空间, 使其能够适用于离散的异构多核处理器任务调度问题的研究; 然后, 为避免算法过早陷入局部最优, 引入衰减脉冲策略和进化自适应变换策略; 最后, 设计仿真实验, 将所提算法与蝙蝠算法(BA)、改进粒子群算法(IPSO)、人工鱼群算法(AFSA)、改进鲸鱼优化算法(IWOA)进行比较。实验结果表明, 在中等规模任务(40~70个)和大规模任务(80~100个)下, EABA算法的最优调度长度与次优算法相比分别缩短了12.86%和13.67%, 算法平均执行时间分别减少了14.51%和13.50%。
单幅图像超分辨率(SISR)旨在从给定的低分辨率(LR)图像中重建出高分辨率(HR)图像。近年来, 基于深度学习的SISR算法取得了出色的重建效果, 引起了广泛关注。然而, 大多数基于深度学习的SISR算法存在复杂度高、参数量大等问题, 影响实际应用。为了克服以上问题, 提出一种基于自注意力特征蒸馏的模块, 在降低模型复杂度的同时充分提取图像深层特征, 实现轻量化的超分辨率重建。该模块包含2个技术创新: 一是在全局注意力的计算中提出基于非对称卷积的前馈网络, 利用非对称卷积优越的非线性特征提取能力压缩输入通道, 节省计算开销; 二是在空间注意力模块中引入部分通道位移操作, 在不增加计算量的同时, 通过位移部分通道达到提高特征多样性的目的。在6个常用公开数据集上的超分辨率实验结果表明, 相比于CARN、SMSR、DLGSANet等具有代表性的轻量级SISR算法, 所提算法在峰值信噪比(PSNR)、结构相似度(SSIM)、LPIPS评价指标上取得了更好的表现, 同时重建结果的主观视觉效果更优, 更好地平衡了模型复杂度与重建性能。
在工业设计领域, 仿生设计是一种从自然界中汲取灵感并将生物特征与产品设计巧妙结合的方法。然而, 传统仿生设计方法往往存在创新性不足的问题, 难以有效融合抽象生物灵感与具象产品形态。为了解决上述问题, 提出一种跨域图像多尺度仿生融合算法BioFusion, 旨在实现产品与生物特征的高质量融合。首先采用热启动优化反演方法, 将图像映射至生成对抗网络(GAN)的生成器潜在空间, 然后通过基于少样本微调的生成模型域扩展, 将基于产品数据集训练的潜在空间扩展至包含生物特征的融合空间, 之后提出一种跨域多尺度插值融合方法LISM, 有效整合产品图像域和生物图像域的语义特征。在自建的产品数据集上训练该算法模型, 并在反演质量及跨域图像融合效果方面将其与DGBID、Smooth Diffusion等方法进行对比, 实验结果表明, BioFusion能够生成逼真且富有形态感知的融合图像, 在弗雷谢特距离(FID)、图像插值标准差(ISTD)和融合图像质量(BIQI)上表现较好, 分别达到34.65、18.37和1.11。此外, BioFusion在多尺度仿生融合方面表现良好, 能够生成包含不同维度语义信息的融合图像, 从而为设计者提供丰富的仿生设计灵感和参考。
弥散张量成像(DTI)是一种常用的核磁共振成像技术, 为了对弥散张量图像进行版权保护, 同时保证弥散张量数据的完整性, 提出一种基于黎曼度量的两阶段鲁棒可逆水印算法。为了避免常规欧几里得运算在张量空间中的误差, 通过对数-欧几里得变换, 将弥散张量从流形空间映射到对数-欧几里得空间, 利用深度学习模型提取弥散张量图像的特征并嵌入水印信息。然后, 结合可逆水印算法, 在嵌入鲁棒水印后恢复出高质量的弥散张量图像。实验结果表明, 该算法能够抵御裁剪、旋转、高斯噪声等攻击, 且算法恢复出的弥散张量误差不超过2×10-8, 峰值信噪比(PSNR)相较于VSTNet算法提高了21%。
微表情是一种心理健康诊断的重要依据, 眼镜、口罩等物体造成的遮挡会导致微表情识别困难。现有遮挡微表情重建方法以RGB纹理信息重建为主, 存在信息大量冗余、难以实现对纹理的精确重建等问题。此外, 重建方法采用的模型多为基于U-Net的对称自编码器和生成对抗网络(GAN)等, 存在浅层的对称结构重建能力有限、对抗损失收敛困难等问题。为此, 提出一种基于量子化降噪自编码器的微表情遮挡区域动态流特征重建方法。首先, 基于光流和动态图像提出光照能量鲁棒的动态流特征表示, 有效聚合所有TVL1光流中的运动信息, 并简化纹理信息; 其次, 基于离散编码的变分自编码器(VQ-VAE)提出一种双层结构向量量子化降噪自编码器(VQ-DAE), 用于微表情的遮挡区域动态流特征重建, 以进行遮挡微表情的识别。实验结果表明, 该方法能较好地重建遮挡区域的运动信息, 在CASME、CAS(ME)2、CASME Ⅱ这3个数据集上的准确率分别达到77.89%、72.02%、61.04%。与传统方法、基于空间注意力及自注意力方法相比, 所提方法在准确率、未加权平均召回率(UAR)、Macro-F1等指标上均有显著的性能提升。
遥感图像检索的关键是从海量图像中高效、准确地检索出目标样本。遥感图像类内样本分散、方差大, 依靠有限样本的传统遥感图像检索不能很好地学习类内样本差异特征, 现有的跨批处理内存(XBM)方法的三元组配对冗余、计算复杂。针对这些问题, 提出一种基于类中心优化辅助的三元组损失(CCO-TL)的遥感图像检索方法。CCO-TL使用类中心特征限制类内正样本之间的距离以辅助优化三元组损失, 实现类间相互分离, 同时类内的样本更加聚集紧凑, 得到优化的样本特征; 通过改进XBM模块得到批次特征队列(BFQ), 用于存储先前训练批次的特征向量, 通过改变三元组配对方式, 充分挖掘样本信息并解决数据冗余问题, 减少训练时间。同时使用BFQ模块进行类中心点特征的实时计算, 用计算值取代传统方法的估计值。实验结果表明, 基于真实类中心特征辅助优化的三元组损失函数训练的网络模型学习样本间的能力更强, 类内更加聚集, 类间区分也更明显。最后结合Recall@K等指标进行评估, 在UCMD、AID、PN、OP 4个遥感数据集上进行实验, 所提算法的精度分别达到93.1%、87.2%、97.1%、82.2%, 优于其他研究方法。
现有的高精度车辆检测模型参数与计算量过高, 无法在交通智能设备上良好运行, 而轻量化的车辆检测模型精度普遍较低, 不适用于实际任务。为此, 提出一种改进YOLOv8的轻量化车辆检测网络, 将主干网络替换为计算量和内存访问更小的FasterNet网络, 并且将颈部的双向特征金字塔网络替换为加权双向特征金字塔网络(BiFPN), 简化特征融合过程。同时, 引入一种融合注意力机制的动态检测头, 实现检测头和注意力的无冗余结合; 此外, 针对完全交并比(CIoU)在检测精度和收敛速度上的缺陷, 提出一种尺度不变交并比(SIoU)结合归一化高斯Wasserstein距离(NWD)的回归损失算法。最后, 为尽量减小模型对边缘设备的算力需求, 进行基于幅值的层自适应稀疏化剪枝, 进一步压缩模型大小。实验结果表明, 提出的改进模型相较于原模型YOLOv8s, 在精度上升1.5百分点的情况下, 参数量降低78.9%, 计算量下降67.4%, 模型尺寸降低77.8%, 达到了比较优秀的轻量化效果, 具有很强的实用性。
手机屏幕作为人机交互的主窗口, 已成为影响用户体验和终端整体性能的重要因素。因此, 市场对解决手机屏幕瑕疵的需求日益增长。为满足这一需求, 针对在手机屏幕瑕疵检测过程中存在检测精度低、小目标瑕疵漏检率高与检测速度慢的情况, 提出一种以YOLOv8n作为基准模型的PGS-YOLO算法。PGS-YOLO通过增加一个专门的微小目标检测头, 并结合SeaAttention注意力模块, 有效提升对小目标的探测能力; 将骨干网络和特征融合网络分别融入PConv与GhostNetV2轻量化模块, 在保证精度的同时降低模型的参数量, 提高瑕疵检测的速度与效率。实验结果表明, 在北京大学手机屏幕表面瑕疵数据集中, 相较于YOLOv8n, PGS-YOLO算法的mAP@0.5提升了2.5百分点, mAP@0.5∶0.95提升了2.2百分点, 在手机屏幕瑕疵检测过程中不仅能对大片的瑕疵做到精准检测, 还能对小瑕疵保持一定的准确度。此外, 检测性能优于YOLOv5n、YOLOv8s等大部分YOLO系列算法。同时, 参数量仅为2.0×106, 小于YOLOv8n, 满足工业场景对手机屏幕瑕疵检测的需求。
列车虚拟编组技术通过灵活的编队运行方式实现运能与客流的匹配, 其原理是基于相对制动距离原则缩短编队内列车的运行间隔。线路坡度使得列车制动过程为变减速度运动, 导致安全间隔防护计算过程较为复杂, 而既有方法处理该过程存在过于简化、缺乏工程可实施性的问题, 针对此, 提出一种基于等效轨迹时间偏差的安全防护方法。该方法将编队内列车的实际运行轨迹转换为恒定坡度加速度运行的等效轨迹, 并推导出转换前后两种轨迹的时间偏差上下界。基于对等效轨迹时间偏差的分析, 将虚拟编组列车的安全防护转换为对领航列车通过某位置的最晚时间是否早于跟随列车通过该位置的最早时间的判断, 从而既简化了运算, 又能够处理前后列车的变减速度运动过程。选取某实际线路数据, 通过仿真计算不同位置、不同速度时列车的等效坡度减速度和时间偏差, 结果表明采用等效轨迹时间偏差的计算方法能够监控虚拟编组列车的安全运行间隔, 能够处理线路坡度、列车运行阻力、制动力特性, 以及前后车性能差异造成的减速度变化, 具备工程可行性。
为解决当前混凝土裂缝检测模型庞大难以部署到移动端设备且裂缝检测不准及漏检问题, 提出一种基于多维注意力模块的轻量化混凝土裂缝检测方法。该方法针对当前主流的裂缝检测模型庞大的问题, 采用深度可分离卷积对YOLOv5s中的CBS特征提取模块进行重构, 得到轻量化CBS(LCBS)特征提取模块, 以减少网络的参数量及计算量; 针对裂缝检测不准的问题, 提出一种多尺度特征(MSF)提取模块用于替换YOLOv5s第1层的卷积层, 以增强网络对不同尺寸裂缝特征的提取能力; 针对裂缝漏检问题, 提出融合空间及通道信息的多维注意力(MDA)模块, 以增强裂缝特征提取能力和减少裂缝漏检。实验结果表明, 所提方法比YOLOv5s参数量减少了35.2%, 计算量减少了50.9%, 模型规模减小了32.8%, 且平均精度均值(mAP@0.5)提高了4.2百分点, 与目前主流的同类目标检测方法相比, 具有较低的参数量和较高的检测精度。
智能驾驶中道路交通标志的检测与识别极其重要, 针对交通标志被遮挡时存在目标小、检测精度低的问题, 提出一种基于改进YOLOv5s的被遮挡交通标志检测算法。通过自制中国遮挡交通标志数据集(COTSD), 解决交通标志在被遮挡情况下数据集缺乏的问题, 并根据细粒度物体检测需要模型提取丰富判别特征, 提出一种基于MobileNetv2改进的主干网络。针对交通标志较小、被遮挡且分辨率较低, 普通线性插值方式无法捕捉更高阶、更细节特征的问题, 设计一种改进的动态权重上采样模块(DEUM), 整合经过通道注意力加权之后的通道信息进行像素重排, 生成高分辨率图像; 针对综合交并比(CIoU)等损失函数对小目标位置变化敏感的问题, 使用归一化高斯Wassertein距离(NWD)来优化边界框回归损失。实验结果表明, 该算法在自制被遮挡COTSD上的准确率为93.60%, 召回率为72.50%, F1值为81.71%, mAP@0.5为79%;在包含少量被遮挡交通标志的公开CCTSDB上的准确率为92.2%, 召回率为78.8%, F1值为85%, mAP@0.5为88.5%。该算法有效提高了被遮挡后交通标志的检测精度。
600 km/h高速磁浮列车的研发是高速磁浮系统向更高速商业应用迈进的重要过程。高速磁浮列车已完成低速动态试验车轨空间关系论证, 但诸多关键指标仍需通过达速试验进行验证, 因此建设长距离试验线已成为制约高速磁浮发展的瓶颈之一。依托上海磁浮示范线, 从高速磁浮列车构造、既有线线路条件、系统配置等多方面进行分析, 论证600 km/h高速磁浮列车在上海磁浮示范线上试验的可行性。在现有试验线路条件下, 提出了对运控系统的创新设计, 对牵引系统供给做出适应性调整。仿真结果实现了车-地间通信数据的收发、列车运控系统的优化, 在该示范线上进行600 km/h高速磁浮列车试验是经济可行的方案, 并通过对运控系统的创新设计为将来更高速列车的达速试验提供方案设计经验。
在高速收费站拥堵检测场景中, 遮挡、阴影、景深等因素严重影响检测算法的精度, 基于单信息的拥堵检测算法无法准确反映收费站真实拥堵情况, 对此, 提出一种高速收费站多信息融合拥堵检测算法。首先采用目标检测算法检测目标区域车辆, 利用图像空间特征计算车道占用率; 其次利用Deep SORT目标跟踪算法与滑动平衡机制进行车流量综合估计, 减少因为遮挡和阴影导致的车辆误检、漏检问题; 最后利用基于光流信息熵的车速估计方法, 降低因景深变化导致的拥堵状态检测误差。通过融合3种不同维度信息得到拥堵指数, 拥堵指数聚类为5种拥堵类别以判断真实拥堵状态, 从而实现高速收费站的拥堵检测。实验结果表明, 在高速收费站拥堵数据集上, 采用多信息融合的拥堵检测算法准确率达到90.4%, 能够实现对收费站拥堵状态的准确检测。