在众多科学领域的研究与开发中,模拟器都扮演着不可替代的角色。在体系结构领域尤其如此,模拟器提供了一个安全、成本低廉的虚拟环境,使研究人员能够快速开展实验分析和评测。同时,模拟器还可以加速芯片设计和验证的过程,从而节省时间和资源成本。然而,随着处理器体系结构的演化进步,尤其是专用处理器发展呈现多元化特点,为了能够对体系结构设计探索提供重要的反馈,模拟器的重要作用日益凸显。综述了体系结构模拟器目前的发展与应用现状,重点介绍了几种目前较为典型的体系结构模拟器。通过对专用于不同处理器的模拟器技术手段的分析,深入了解不同架构下模拟器的侧重点及技术难点。此外,还对体系结构模拟器未来发展的关键点进行了思考与评述,以展望其在处理器设计研究领域的前景。
从多个不同的摄像机中检索出一个特定的行人是行人重识别(ReID)的主要任务。随着深度神经网络的发展和智能视频监控需求的增加,行人ReID逐渐受到研究人员的关注。现有的行人ReID方法大多利用带有标签的数据集进行有监督训练,但该方式的数据标注成本高昂,使得有监督行人ReID难以扩展到大型的未标记数据集场景。无监督行人ReID可以有效地改善行人ReID模型的扩展问题,更符合现实场景的应用,并逐渐成为研究热点。尽管已有行人ReID的相关综述,但它们主要聚焦于有监督学习领域的方法和应用。为此,对现有无监督行人ReID研究工作进行系统归纳、分析和总结,以便为该领域研究人员提供参考。首先,全面回顾无监督场景的行人ReID方法,根据模型训练是否使用源域监督信息,将无监督行人ReID研究划分为无监督域适应方法和完全无监督方法,并对这2类方法进行分析和总结。然后,介绍和归纳总结行人ReID研究相关的经典数据集,并展示和讨论不同行人ReID方法在这些数据集上的性能和优劣。最后,指出当前无监督行人ReID研究所面临的问题,并提出未来发展方向。
多表连接顺序选择是指在进行查询优化时为查询语句中涉及的多个表选择最优的连接顺序以提升查询性能。在复杂查询中,不同的表连接顺序能够显著影响查询执行效率。在大数据时代,面对庞大的数据集、多样的应用环境以及复杂的查询语句,基于启发式规则的传统多表连接顺序算法无法根据环境动态适应和自我学习,缺乏泛化能力,因此选择次优的多表连接顺序,甚至会严重影响查询性能。随着机器学习技术的蓬勃发展,面向数据库的人工智能(AI4DB)技术逐渐引领查询优化领域。机器学习技术能够解决传统连接顺序选择算法存在的问题,在自我学习以及场景适应方面具有较好表现。首先介绍连接顺序的传统选择算法,挖掘其存在的问题,然后总结当前主流的针对多表连接的机器学习模型,并分别介绍它们的核心技术方案,在效果、可用场景等方面对它们进行横向对比,为该领域后续科研工作者提供有价值的参考。
工业时序预测对于优化生产过程和增强决策制定至关重要。现有基于深度学习的方法由于缺乏领域知识而常常效果不理想。现有研究使用机理模型指导深度学习以解决此问题,但这些方法通常只考虑单一机理模型,忽略了工业过程中多个时序预测机理的情形以及工业时序的复杂性。为此,提出基于注意力机制的多机理指导的深度学习工业时序预测(M-MDLITF)通用框架,其能够将多个机理嵌入深度工业时序预测网络指导训练,并且将不同机理的优势通过注意力机制集成于最终预测结果。多机理深度维纳(M-DeepWiener)作为M-MDLITF框架的实例化方法,利用上下文滑动窗口和Transformer编码器架构来挖掘工业时序的复杂模式。在1个模拟数据集和2个真实数据集上的实验结果表明,M-DeepWiener具有良好的运行效率和鲁棒性,比单机理深度维纳(DeepWiener)、经典维纳机理和纯数据驱动方法具有更高的预测准确率,其中在模拟数据集上比单机理模型DeepWiener-M1的误差降低了20%。
随着高性能计算体系结构的发展,软件与硬件都具有多层的并行结构。当不同纵向层级与横向分组的计算任务被划分到不同节点的不同处理器时,存在非常多的分配方式。这些分配方式一般在运行时由用户输入的多个并行参数来确定,并对计算效率影响很大。随着计算规模与复杂度的提升,多个并行参数的可配置空间越来越大,用户越来越难以确定最佳的并行参数值。这类运行时优化问题在科学计算应用中较为普遍,但相关的研究与解决方法比较少见。以VASP(Vienna Ab initio Simulation Package)应用为例,首先分析了该应用的多层并行结构,展示了不同并行参数配置引发的巨大运行速度差异。然后提出了一个基于约化并行效率指标的全自动运行优化方法,其不仅可以帮助用户简单快捷地确定最佳应用并行参数,而且可以帮助用户确定最佳的计算资源使用量,使应用可以高效率地扩展到大规模的并行计算中。最后将该优化方法与计算集群作业调度系统相融合应用于用户提交的真实VASP计算作业。统计结果表明,该方法显著提升了作业运行速度与超算资源的使用效率,具有很好的工程应用前景。
时间序列预测可广泛应用于工业生产、金融决策和灾害预警等领域。然而现有预测方法的研究对象大多是平稳时间序列,难以准确捕捉非平稳序列的演化特征。对于非平稳时间序列的预测方法也未能有效捕捉序列的多维特征,对序列动态感知不够完整,从而降低了预测的准确性。鉴于此,提出一种针对非平稳时间序列的预测机制。首先通过建模影响序列平稳性的季节性、局部趋势和长期趋势特征,提取非平稳时间序列的多维隐状态。然后结合前向后向算法与最大似然估计(MLE)计算最大转移概率,进而实现状态预测。由于该机制考虑了多种潜在非线性因素对非平稳序列的影响,且通过感知全局状态转移计算最大转移概率,从而提升了预测的准确性。最后通过方案级预测实例证实了所提机制的有效性。在9种不同领域的非平稳时间序列数据集上进行的消融实验结果验证了该机制各部分对于预测准确性的影响。对比实验结果表明,该机制的平均绝对百分比误差(MAPE)、均方根误差(RMSE)相比于多数预测方法更小,在金融领域的数据集上Legates-McCabe指数接近于1,是一种兼具鲁棒性和准确性的方法。
几何证明题的自动生成是智能教育领域中的热点研究问题。现有方法通常以单道已有习题的原始几何关系为基础,利用几何自动推理技术,推理发现新的几何关系并合成新习题。由它们生成的习题所包含的几何关系全都可以基于输入习题的原始几何关系推理得到,缺乏新颖性。针对这一问题,提出一种通过重组2道已有习题的几何关系以生成新习题的方法。通过引入向量恒等式理论,为几何关系的表示以及判定源自不同习题的几何关系能否重组为新习题提供理论依据,进而实现从已有习题中自动提取几何关系,以及将源自不同习题的几何关系自动重组为新习题的算法。实验分析以及专家的评估结果表明,所提方法在运行性能以及教育应用方面都具有可行性,并且在相同输入的情况下能够生成现有方法无法生成的更具新颖性的习题。
在交通标志检测中,由于外界环境的干扰以及驾驶场景中交通标志目标较小的特点,导致提升交通标志检测性能一直是一项具有挑战性的任务。提出一种新的交通标志检测算法,其能够在保证实时检测的情况下显著提高模型的检测精度。首先设计一种新的多尺度特征提取网络,引入大尺度特征来增加小目标定位信息,同时设计多尺度特征注意增强模块进一步获得目标的上下文信息。其次,为了降低模型的计算量和复杂度,对原始模型的多尺度检测头进行改进,选取2个大尺度检测头对小目标进行检测。最后,对完全交并比(CIoU)损失函数进行改进,增强算法对小目标的感知能力,同时提高网络的训练效率。将改进后的模型在2个开源的公共数据集上进行实验。实验结果表明,该算法在TT100K和CCTSDB 2021交通标志数据集上对交通标志小目标的检测精度均有提高,在2个数据集的测试集上均值平均精度(mAP)分别达到84.8%和83.6%,较基准模型分别提升了3.0和3.6百分点,具有更高的检测性能和特征提取能力,且满足实时检测的需求。
信息过载已成为大数据时代面临的一个普遍问题,推荐算法是解决该问题的有效手段。现有的推荐算法具有不同程度的有效性,但仍面临着如何学习更高质量的项目和用户特征以提升推荐性能的挑战。提出一种基于二部图对比学习的特征增强推荐算法FRBGCL。设计一个项目特征初始化模块,利用图卷积网络(GCN)进行各类项目关系二部图的表示学习,并使用基于注意力机制的特征融合策略获取项目初始特征。此外,在构建用户-项目二部图的基础上,设计图对比学习模块进一步增强项目和用户特征,进而提升推荐算法性能。在XuetangX、Last.fm和Yelp2018 3个数据集上的实验结果表明,在选择最优参数的情况下,FRBGCL的Top20推荐结果与次优算法相比,召回率分别提升2.1%、6.8%、11.6%,归一化折损累计增益(NDCG)分别提升1.8%、6.1%、13.1%,命中率(HR)分别提升1.7%、7.8%、8.4%。
声纹识别中说话人验证在人机交互、医疗诊断和线上会议等现实领域起关键作用。基于深度神经网络(DNN)的说话人嵌入技术在说话人验证任务中变得越来越流行。Open-Set下的说话人验证是一个多分类任务,本质上是度量学习。现有的度量学习性能高度依赖于大批量具有标签信息的高分辨率语音样本。为了解决这个问题,提出一个基于度量学习的最小化相同类距离目标算法。该算法在三元组损失的基础上,引入八元组损失,利用4个三元组损失项捕捉高分辨率和低分辨率语音之间的关系,并运用困难样本挖掘技术来选择合适的数据三元组,使得模型分类更加准确。其次,为提升噪声干扰场景中低分辨率语音信号的分类鲁棒性,引入在线数据增强策略,使用RIR和MUSAN数据集对模型数据进行增强,利用数据增强后的数据和引入八元组损失对ECAPA-TDNN预模型进行微调训练,使得该微调网络能在噪声环境下处理低分辨率语音信息,提高模型性能。该方法在不影响模型对高分辨率语音的处理性能的同时,可以在多个数据集上显著提高跨分辨率语音的识别性能。在VoxCeleb1数据集和CN-Celeb1数据集上,等错误率(EER)的数值达到最优值,分别为1.20%和1.61%。
随着近年来深度学习的快速发展,基于深度学习重建稀疏、含有噪声的低质量点云表面成为当前的研究热点。目前已有的点云表面重建模型还存在难以重建复杂场景、局部细节重建不完整以及重建效率低等问题。为了进一步提高点云表面重建的效果,结合卷积占用网络模型,提出一种基于双分支卷积和深度插值的点云表面重建模型。首先,使用PointNet网络和双分支卷积构建的融合卷积编码模块进行特征提取,其中双分支卷积将点分支提取的点特征自适应地融入到体素分支的体积特征中,为体积特征提供更细粒的局部信息;然后,结合邻居点特征,通过一个多头注意力网络生成查询点特征,构建深度插值特征模块,使得用于特征解码的全连接层(FC)网络预测查询点的空间位置更加准确;最后,基于移动立方体(MC)算法提取高质量的网格表面模型。在对象级数据集ShapeNet以及场景级数据集Synthetic Rooms上的实验结果表明,所提模型在交并比(IoU)指标上分别达到了0.931和0.910,优于POCONet、ConvONet、DP-ConvONet等对比模型,在Synthetic Rooms上的平均重建时间上较POCONet大幅减少,且在视觉上表现出了良好的效果;在对象级数据集ABC上体现了模型优越的泛化性能,证明了所提模型的有效性。
在室内场景下, 受角度、光线变化等因素的影响, 导致现有目标检测算法检测跌倒事件时检测精度降低、实时性变差。为此, 提出一种基于YOLOv8改进的跌倒检测算法OEF-YOLO。采用全维动态卷积(ODConv)模块改进YOLOv8中的C2f模块, 优化了核空间的4个维度以增强特征提取能力, 而且有效减少了计算负担。同时, 为了捕获更细粒度的特征, 在颈部网络中引入高效多尺度注意力(EMA)模块, 进一步聚合像素级特征, 提高网络在跌倒场景中的处理能力。在CIoU损失函数中融入Focal Loss思想, 使模型对难分类样本给予更多关注, 优化模型整体性能。实验结果表明, 相比YOLOv8n, OEF-YOLO跌倒检测算法在mAP@0.5指标上提升了1.5百分点, mAP@0.5∶0.95提升1.4百分点, 参数量和计算量分别为3.1×106和6.5 GFLOPs, 在图形处理器(GPU)上FPS提高了44, 在提高精度检测跌倒事件的同时, 兼顾了低算力场景下的部署要求。
随着深度学习技术的快速发展, 其在垃圾分类领域的应用日益广泛, 显著提高了分类的准确性和效率。然而, 在实际应用中仍面临许多挑战, 如数据获取和标注成本高、模型泛化能力不足、实时性要求难以满足等。为此, 基于PP-LCNet提出一种结合视觉大模型的轻量化垃圾分类算法LSM-PPLCNet。LSM-PPLCNet结合视觉大模型的强大特征提取能力与轻量化模型的设计, 确保模型在满足实时性要求的同时, 在自制垃圾分类数据集上提高精度。首先, 使用基于CLIP大模型的半监督训练策略, 对无标注数据进行数据挖掘, 以丰富训练样本, 进而降低人工标注的成本; 其次, 使用知识蒸馏方法, 由高精度CLIP大模型作为教师模型指导轻量化网络PP-LCNet的训练; 最后, 提出基于大模型的权重损失, 通过为不同图片分配损失函数中的占比, 使模型能够根据图片的不同质量调整其在损失函数中的比例。在自制垃圾分类数据集上的实验结果表明, 与基线PP-LCNet分类模型相比, LSM-PPLCNet在不影响推理速度的前提下, Top-1 Accuracy可提升4.03百分点, 与其他主流模型相比也有显著优势, LSM-PPLCNet在垃圾分类任务中可实现精度与速度的平衡。
在工业场景下钢材表面缺陷检测技术存在检测精度低、收敛速度慢等问题。为此, 提出一种改进的YOLOv8算法YOLOv8n-MDC。首先, 在骨干网络中加入多尺度交叉融合网络(MCN), 通过在特征层之间建立更紧密的连接, 促进信息的均匀传递, 减少跨层特征融合时的语义信息损失, 从而增强模型对钢材缺陷的感知能力; 其次, 在模块中引入可变形卷积, 自适应地改变卷积核的形状与位置, 从而更灵活地捕捉不规则缺陷的边缘特征, 减少信息丢失, 提升检测的准确性; 最后, 加入坐标注意力(CA)机制, 将位置信息嵌入到通道中, 解决了位置信息丢失的问题, 使模型能够更精确地感知缺陷的位置及其形态特征, 从而提升检测的精度和稳定性。在NEU-DET数据集上的实验结果表明, YOLOv8n-MDC算法的mAP@0.5达到了81.0%, 相比原基准网络提升了4.2百分点, 该算法收敛速度较快、精度较高, 更能满足实际工业生产的要求。
近年来, 如何分析挖掘不确定时间序列数据逐渐受到业界关注。Top-k查询作为数据库领域研究的热点问题, 旨在从大规模数据中检索出最符合用户查询条件的前k项结果。然而, 尽管Top-k查询在其他领域已被广泛应用, 针对不确定时间序列的Top-k查询研究仍然较少。这种查询可以有效帮助用户从不确定时间序列提取重要信息。提出一种新的Top-k查询问题——不确定时间序列Top-k窗口聚合查询, 并针对该问题给出高效的查询方法。这个查询可以作为一个基础工具, 辅助用户探索和分析不确定时间序列数据。现有能够支持这个查询的方法均存在查询效率较低或所需存储空间过高的问题。针对该问题, 提出一种基于子窗口拼接策略的两级Top-k查询方法, 并提出高效计算阈值上界方法解决基于子窗口拼接策略引入的阈值计算复杂难题。该方法能够以较少的预计算存储空间, 高效支持不确定时间序列Top-k窗口聚合查询。为了验证所提方法的有效性, 在真实和人造数据集上进行实验。实验结果表明, 所提方法与基于TA的Top-k查询方法相比, 明显降低了预计算列表的存储空间; 与基于遍历的FSEC-S方法相比, 所提方法以及使用计算阈值上界优化方法的平均查询效率分别提升了7.27倍和20.04倍。
将深度学习部署到边缘侧存在训练数据的域偏移、长尾分布、计算资源有限的问题, 因此需要应用领域自适应方法进行在线重训缓解域偏移, 重训时利用长尾削减技术缓解长尾分布问题, 且需要考虑计算开销。然而现有长尾削减技术大多计算开销较大或无法与领域自适应方法有效结合。为此, 提出一种边缘侧结合领域自适应和长尾分布削减技术的算法EdgeTailor。EdgeTailor将边缘合成少数类过采样技术和类平衡损失作为长尾削减优化策略, 通过对连续无监督自适应过程进行优化, 并引入缓冲区解决在线学习时尾部类数据量过少的问题, 使其能够在进行在线连续领域自适应的同时缓解在线学习时数据的长尾问题。实验结果表明, 在两组存在域偏移的长尾数据集, 以5种深度神经网络作为模型骨架构建的边缘侧领域自适应任务中, EdgeTailor相比基线在目标域上平均Top-1准确率提升了约8.10%;在计算开销方面, EdgeTailor的每秒浮点运算次数(FLOPs)和参数量均保持在相对较低的水平, FLOPs相比基线中效果较好的数据合成方法减小了大约29.84%。EdgeTailor具有边缘侧高性能和低开销的优点, 有效缓解领域自适应中的长尾视觉识别问题。
在大数据时代, 存在大量多视图数据, 现有的多视图聚类方法大都把所有视图数据汇总到一起进行学习, 但在实际应用中, 不同视图的数据大多存储在不同的设备中, 甚至有些设备上的数据涉及隐私, 无法共享。如果把每个视图的数据视为分布式网络中的一个节点, 联邦学习则可有效解决数据无法共享和隐私保护的问题, 联邦多视图聚类正是将联邦学习引入多视图聚类而得到的一类方法。联邦学习利用中心服务器进行协调, 当中心服务器缺失或出现故障时, 该方法将失效。为此, 提出一种去中心的联邦多视图聚类(DFMC)方法。首先通过非负矩阵分解(NMF)学习每个视图的低维表示, 然后根据视图信息的一致性, 针对不同视图的低维表示给出一致性约束, 该约束可以实现邻居视图间的通信, 构建去中心的联邦学习环境, 得到一个统一的低维表示, 进而进行聚类。在此基础上, 使用交替极小化(AM)算法对每个视图分别进行求解, 从而实现隐私保护。在真实数据集上的实验结果验证了DFMC的有效性和收敛性。
基于内存进行作业计算的Spark分布式计算框架并不考虑作业的中间计算结果, 容易造成高频访问的数据块丢失, 在迭代作业类型中表现更为明显。Spark通过LinkedHashMap提供的哈希表实现最近最少使用(LRU)算法的缓存功能, 最久未被使用的元素被移动到顶部并优先被删除, 且造成数据重算。针对Spark使用的LRU缓存替换算法造成的高频访问但当前未被使用的热点数据被替换出缓存的问题, 提出一种基于弹性分布式数据集(RDD)重用度的Spark自适应缓存优化策略(LCRD), 该策略包括自动缓存算法和缓存自动清理算法。首先, 自动缓存算法在作业执行前对Spark的有向无环图(DAG)进行分析, 计算RDD的重用频率、RDD的算子复杂度等数据, 并对影响执行效率的相关因素进行量化, 根据重用度模型进行计算, 在作业执行中, 应用程序将重用度较高的数据块进行缓存; 其次, 在发生内存瓶颈或RDD缓存无效时, 缓存自动清理算法遍历缓存队列, 并对低频访问的数据块进行清理。实验结果表明, 在选取amazon0302、email-EuAll、web-Google、wiki-Talk等4种公开数据集执行PageRank迭代作业时, 与LRU相比, LCRD的执行效率平均分别提升10.7%、8.6%、17.9%和10.6%, 内存利用率平均分别提升3%、4%、3%和5%。所提策略能够有效提高Spark的执行效率, 同时提升内存利用率。
业务流程合规性检查可以帮助企业及早发现潜在问题, 保证业务流程的正常运行和安全性。提出一种基于改进BERT(Bidirectional Encoder Representations from Transformers)和轻量化卷积神经网络(CNN)的业务流程合规性检查方法。首先, 根据历史事件日志中的轨迹提取轨迹前缀, 构造带拟合情况标记的数据集; 其次, 使用融合相对上下文关系的BERT模型完成轨迹特征向量的表示; 最后, 使用轻量化CNN模型构建合规性检查分类器, 完成在线业务流程合规性检查, 有效提高合规性检查的准确率。在5个真实事件日志数据集上进行实验, 结果表明, 该方法相比Word2Vec+CNN模型、Transformer模型、BERT分类模型在准确率方面有较大提升, 且与传统BERT+CNN相比, 所提方法的准确率最高可提升2.61%。
针对工业物联网(IIoT)中数据采集与监视控制(SCADA)系统和终端设备之间通信易受篡改、窃听、假冒等攻击的问题, 提出一种基于国密的门限签密方案(SM-TSC)。首先, 对终端设备进行注册、分组, 基于Shamir秘密共享设计群组秘密值分配方法, 防止IIoT场景下终端设备节点权力过于集中所造成的密钥泄露、签密伪造等问题; 其次, 将国密SM2签名算法作为基础, 结合国密SM3算法、国密SM4算法以及群组秘密值分配方法, 设计一种安全高效的面向群组的门限签密算法, 保障SCADA系统与终端设备群组之间通信消息的真实性和机密性; 最后, 在随机谕言机模型下, 利用安全归约方法对SM-TSC方案进行安全性分析。分析结果表明, SM-TSC方案在自适应选择密文攻击下能达到语义安全, 在自适应选择消息攻击下是存在性不可伪造的, 可以有效保障群组通信中数据的机密性和真实性。实验结果表明, 与现有的基于椭圆曲线的门限签密方案相比, SM-TSC方案在门限签密阶段和解签密阶段的计算开销分别降低了75%与79.66%, 其在IIoT群组通信中具有更高的适用性。
由于恶意软件、Web攻击等行为频发, 需要避免因网络恶意攻击而导致互联网上存在的大量用户隐私信息外泄, 因此, 网络入侵检测成为研究热点。网络入侵数据中存在大量冗余和不相关的信息, 现有的检测模型很少捕捉网络入侵数据中时间和空间维度上的模式和规律, 导致模型的检测性能受到限制。结合特征选择和特征融合, 建立一种新的网络入侵检测模型BRFE-CBIAT。首先通过随机森林(RF)和递归特征剔除(RFE)来构建BRFE模型, 通过BRFE模型对数据特征进行选择, 剔除部分不重要的特征, 减少冗余信息; 其次, 建立时空特征并行提取的CBIAT模型, 使用卷积神经网络(CNN)的一维卷积层对数据进行初步空间特征提取; 然后, 通过时间特征模块中的双向长短时记忆(BiLSTM)网络对深层序列数据进行建模, 捕获特征之间的时序关系, 并利用改进的空间注意模块关注空间特征; 最后, 通过Softmax分类器处理融合的时空特征以获取分类预测结果。实验结果表明, BRFE-CBIAT模型在NSL-KDD和UNSW-NB15数据集上的多分类检测准确率分别为99.7%和94.0%, 优于目前主流的网络模型, 所提模型对多类别的细分效果也存在明显优势, 在NSL-KDD数据集中, 所有细分性能均达到96%以上, 在UNSW-NB15数据集上对DoS攻击的检测F1值达到89%。
为提升中文领域黑盒攻击下生成对抗样本过程中扰动定位精度, 并解决现有方法在词重要度评估中忽视上下文关联度和语义密度的问题, 提出一种具有多层次扰动定位能力的中文文本对抗样本生成方法(MDLM)。首先, 通过整合多源异构深度学习模型, 构建一套融合不同特征提取能力的多层次判定模型; 其次, 在词重要度评估上新增3种评估函数, 从多个维度评估词的重要度; 最后, 通过多层次判定模型与评估函数共同作用实现对原始文本扰动点的精准定位。在文本对抗样本生成策略上, MDLM融合了繁体字、拼音、多音词、同音词等多种文本替换策略, 旨在确保攻击成功率的同时, 提升生成对抗样本的多样性。实验结果显示, MDLM在多个数据集上针对多个目标模型进行攻击时扰动效果显著, 最高攻击扰动率达到了43.5%, 进一步增强了对抗样本的攻击能力。同时, 针对多层次扰动定位能力的消融实验结果显示, 将评估函数与判定模型进行多层次组合可以显著提高生成对抗样本的攻击效果。
物联网(IoT)设备数据上云已成为主流数据管理方案, 但云端数据管理存在安全风险。为确保数据机密性并防止未授权访问, 属性访问控制(ABAC)被认为是一种有效的解决方案。然而, 现有加密方案负担重、撤销机制不完善, 不适用于动态的物联网环境, 为此提出了边云辅助下的可撤销属性加密方案(ECA-RABE)。该方案采用椭圆曲线加密(ECC)技术降低计算开销; 支持多属性机构分担属性管理减少单点故障问题; 引入边缘节点(EN)降低物联网设备的计算负载; 利用云计算预解密降低用户侧计算压力; 引入属性版本号以及系统版本号, 设计撤销机制实现用户属性撤销、系统全局属性撤销以及用户撤销。安全性分析与性能分析表明, 所提方案在决策双线性Diffie-Hellman (DBDH)假设下是安全的, 并且加、解密效率高, 更适用于物联网环境。
可搜索加密技术以提取出的关键词作为索引, 在文档群中对特定文档进行搜索。现有的可搜索加密方案存在消耗随关键词数量增多而显著增加以及多用户索引不能碰撞的问题。针对现有方案的局限性, 提出一种物联网(IoT)场景中多用户多关键词的可搜索加密方案。基于布隆过滤器的特性, 使用内存消耗较小的向量作为索引对文档群进行分组, 在允许索引碰撞的同时提高可搜索加密的效率。利用由加密关键词生成的验证密文对陷门中是否包含本文档所含关键词进行验证, 从而使用户能在共用索引的文档中找到匹配的文档。基于离散对数问题及Diffle-Hellman问题的困难性, 该方案在各阶段生成密文所需的计算次数较少。理论分析和实验结果表明, 该方案具有可用性和安全性, 且通信开销相较对比方案更小。
直接力浸没边界法是求解流固耦合问题的常见方法之一, 其可以有效地处理复杂的几何形状, 包括移动和变形的固体。然而, 三维复杂流动模拟具有网格规模大、耗时多的特点, 在单核处理器上使用传统的串行算法往往无法满足计算要求。目前, 在国产平台上对流固耦合问题的研究较少, 而在国产平台上实现直接力浸没边界算法能够丰富平台的应用生态。为此, 使用国产DCU(Deep Compute Unit)加速器, 基于CPU-DCU异构编程, 设计并实现利用三维直接力浸没边界算法求解流固耦合问题的并行程序。首先, 在CPU上实现串行算法并进行热点分析, 对程序热点部分使用DCU加速器进行异构加速; 其次, 在异构实现的基础上, 结合DCU硬件特性, 使用共享内存、循环分块、调整访存顺序等优化手段对核函数进行优化; 最后, 通过圆球绕流和仿生鱼自主游动算例对程序进行正确性验证和性能测试。实验结果表明, 在雷诺数分别为100和200时, 圆球的阻力系数分别为1.11和0.78, 计算结果均与相关文献吻合; 在雷诺数为7 142的仿生鱼自主游动实验中, 游动稳定后的平均前进速度为0.396, 该结果与相关文献结果一致。在圆球绕流实验中, 在5 033万网格规模下该并行程序较串行程序获得了83.7倍的加速效果。通过两类流固耦合数值实验, 验证了CPU-DCU并行直接力浸没边界算法在国产异构平台上进行计算的有效性和准确性, 这为国产平台上CFD(Computational Fluid Dynamics)算法的研究提供了坚实基础。
现有的软件多样化工具对多个C/C++源文件组成的项目多样化时,大多数都是对单个C/C++源文件中的所有函数采用相同的多样化方法,使得每个函数或每个源文件存在多样化方式单一、多样化方式缺乏针对性的问题。为此,基于LLVM中间表示,提出一种分组混淆和代码感知相结合的多样化编译方法。设计基于不同角度形成的混淆技术预选库,包含了多种混淆技术分组方案;编译时通过对遍历的每个函数进行代码分析和处理,感知到函数的混淆特征,针对性地选择相应的多样化分组策略,进而随机选择组内的多样化技术进行混淆,从而实现对每个函数所采用的多样化方案都大不相同,生成多样化的异构执行体集合,为拟态防御技术和移动目标防御技术提供了基础软件支撑。选择标准测试集和典型案例,从安全性和性能这2个方面验证所提方法的有效性。实验结果表明,该方法在保证安全性的同时,对性能也几乎没有影响,从而验证了所提的多样化编译方法在实际应用中的有效性和可行性。
结直肠内窥镜图像在设备之间的特征分布不同,导致训练模型在新设备上的分割性能降低。为缓解模型对新设备的适应性问题,提出一种基于增量学习的微调方法,以及一种改进的结直肠息肉分割网络CPSegNet。增量学习方法包含预训练和新设备微调2个阶段,预训练使用旧设备的数据对息肉分割网络进行充分训练,微调阶段同时使用新旧设备样本进行训练,并通过采样率和正则化损失函数防止出现灾难性遗忘现象。CPSegNet采用MiT的预训练模型作为骨干网络,多层感知机(MLP)作为解码模块,不确定区域注意力(URA)作为细化模块,对边界模糊区域进行优化。为了验证学习策略对新设备的适应能力,采用Kvasir-SEG、CVC-ClinicDB、CVC-300、CVC-ColonDB、Kvasir-Sessile和ETIS-LaribPolypDB共6个数据集进行实验,其中前2个数据集为训练集,其余4个为新设备的模拟数据。以Dice相似系数和交并比(IoU)作为评价指标。实验结果表明,在无增量学习情况下CPSegNet在新设备上的性能优于主流的算法,以Kvasir-SEG作为源域数据集,将较难分割的ETIS-LaribPolypDB作为目标域数据集时,与ColonFormer算法相比的Dice相似系数提升3百分点,以CVC-ClinicDB作为源域数据集时,提升了6百分点,使用增量学习后CPSegNet和主流算法都能在新设备上获得性能提升,同时保持在旧设备上的分割精度。
磁共振成像(MRI)脑组织分割在临床诊断、治疗规划、神经学研究、脑功能定位等方面具有重要意义,有助于帮助医生理解和治疗各种神经系统相关的疾病。目前基于Transformer的方法基于自注意力机制提取特征并进行分割,存在为降低自注意力机制的复杂度而牺牲分割精度的问题。为了解决上述问题,提出基于查询自适应双层自注意力机制的MRI脑组织分割网络。在编码器-解码器的网络架构中将查询自适应双层自注意力模块作为主编码器。查询自适应双层自注意力模块包括动态稀疏的粗粒度层和像素级自注意力的细粒度层。粗粒度层基于自注意力计算描述图像块间的相关性,动态地过滤掉不相关的图像块,实现灵活高效的计算,细粒度在挑选出的相关区域应用像素到像素的自注意力,以提升分割精度。该模块可提升分割精度,同时有效控制计算复杂度。分割算法在常用的脑核磁共振图像分割基准上进行验证,实验结果表明,该方法的Dice系数(DSC) 为0.917±0.030,豪斯多夫距离(HD95)为1.196±0.613 mm,在图像分割性能上优于其他先进方法,证明了该方法在核磁共振图像脑组织分割任务中的有效性和准确性。
经典AOD-Net(All in One Dehazing Network)去雾后的图像存在细节清晰度不足、明暗反差过大和画面昏暗等问题。为了解决这些图像去雾问题,提出一种在AOD-Net基础上改进的多尺度算法。改进的网络结构采用深度可分离卷积替换传统卷积方式,减少了冗余参数量,加快了计算速度并有效地减少了模型的内存占用量,从而提高了算法去雾效率;同时采用多尺度结构在不同尺度上对雾图进行分析和处理,更好地捕捉图像的细节信息,提升了网络对图像细节的处理能力,解决了原算法去雾时存在的细节模糊问题;最后在网络结构中加入金字塔池化模块,用于整合图像不同区域的上下文信息,扩展了网络的感知范围,从而提高网络模型获取有雾图像全局信息的能力,进而改善图像色调失真、细节丢失等问题。此外,引入一个低照度增强模块,通过明确预测噪声实现去噪的目标,从而恢复曝光不足的图像。在低光去雾图像中,峰值信噪比(PSNR)和结构相似性(SSIM)指标均有显著提升,处理后的图片具有更高的整体自然度。实验结果表明:与经典AOD-Net去雾的结果相比,改进算法能够更好地恢复图像的细节和结构,使得去雾后的图像更自然,饱和度和对比度也更加平衡;在RESIDE的SOTS数据集中的室外和室内场景,相较于经典AOD-Net,改进算法的PSNR分别提升了4.559 3 dB和4.065 6 dB,SSIM分别提升了0.047 6和0.087 4。
图像分割是环境感知中的一项关键技术,被广泛应用于无人驾驶、虚拟现实等实际任务中。随着技术的不断发展,基于计算机视觉技术的导盲系统日趋成熟,并且在精度、稳定性等方面优于传统的解决方案。在视觉导盲系统中,道路图像的语义分割是非常重要的一部分,系统通过分析算法的输出结果可以获取目前所处的环境状态,从而指导用户躲避前方障碍物,获取最优的移动路径。视觉导盲系统的使用环境复杂,对模型的运行效率和分割精度具有极高的要求。然而,常用的高精度语义分割算法参数量大、运行速度慢,因此无法直接应用于导盲系统。针对这一问题,提出了一种基于多尺度特征的轻量化道路图像分割算法。模型含有两个特征提取分支,即Detail Branch和Semantic Branch,其中Detail Branch用来提取图像的低层细节信息,Semantic Branch用来提取图像的高层语义信息,并且两个分支中的多尺度特征也会被所设计的特征映射模块处理和使用,进而提升模型对于特征的建模能力。此外,设计了一种简单且高效的特征融合模块,通过融合不同尺度的特征,增强模型对于上下文信息的编码能力。采集和标注了适用于导盲场景的大量道路分割数据,并制作成了相应的数据集。基于该数据集对所提出的算法进行训练和测试,实验结果显示: 所提出的道路分割算法的平均交并比(mIoU)为96.5%,优于现有的图像分割模型;以1 024×1 024像素的图像作为输入,所提算法的轻量化版本在NVIDIA GTX 3090Ti平台的运行速度为201帧/s,优于现有轻量化图像分割模型;将模型部署到NVIDIA AGX Xavier设备中,其在实际场景中的测试速度为53帧/s,满足实际需求。
针对现有的目标检测方法在处理背景复杂、有效信息量少的遥感图像时存在的误检、漏检等问题,提出了一种多模态遥感小目标检测方法——BFMYOLO。设计了像素级的红-绿-蓝(RGB)和红外(IR)图像的融合模块, 即多模态融合模块(BFM),充分利用不同模态的互补性,实现两种模态信息的有效融合;设计了全尺度自适应更新模块(AA),解决特征融合过程中的多目标信息冲突问题,通过结合CARAFE上采样算子并进一步融入浅层特征,在加强非相邻层间融合的同时增强小目标的空间信息;设计了改进的任务解耦检测头(IDHead),将分类和回归任务分开处理,以降低不同任务的相互干扰,融合深层语义特征,进一步提升模型的检测性能。采用归一化Wasserstein距离(NWD)损失函数作为定位回归损失函数,降低位置偏差的敏感性。实验结果表明,该方法在VEDAI、NWPU VHR-10和DIOR数据集上的阈值设定为0.5时的均值平均精度(mAP@0.5)分别达到78.6%、95.5%和73.3%,优于其他先进模型, 在遥感小目标检测中表现出良好的性能。
由于复杂多变的生化反应、进水流量和浓度的不断变化,污水处理过程表现出强非线性和时变性等特征,从而导致其过程变量难以精确控制。设计一种麻雀搜索算法(SSA)优化的变论域模糊比例、积分和微分(PID)控制器,对溶解氧和硝态氮浓度进行跟踪控制。首先利用SSA优化第5单元和第2单元的变论域模糊PID控制器的PID初始参数值;然后进行二次寻优,即对量化因子和比例因子进行优化,并设计基于模糊规则的论域自适应调整策略在线整定控制器参数,以提高控制器的跟踪精度;最后应用污水处理过程国际基准仿真平台进行恒值和动态变值跟踪控制的实验验证。实验结果表明,与基于自适应伸缩因子变论域模糊PID控制器、模糊PID控制器、常规PID控制器相比,所设计控制器的绝对误差积分指标明显降低,在有效降低能耗的同时提升了出水水质。
随着分布式能源的高比例渗透、大量储能单元以及柔性负荷的加入,主动配电网的优化调度变得更加具有挑战性。现有经济调度较少考虑柔性负荷和储能单元的接入,收敛速度较慢。结合国家“双碳”目标,提出FISCO BCOS平台下结合通信拓扑优化一致性算法的配电网多目标经济调度策略。该策略综合考虑发电机发电成本、污染气体排放、储能成本和柔性负荷用电效益,利用通信拓扑优化的一致性算法提高系统收敛速度,结合FISCO BCOS联盟链的存储和精简实用拜占庭容错(rPBFT)共识机制优化节点间的信息共享,降低领导节点的中心性,防止部分节点作恶,实现配电网多目标最优功率分配。仿真结果表明,提出的配电网多目标调度经济调度策略收敛速度快,在领导节点切换、不同阶段节点退出与加入及功率交换指令变化、收敛系数变动场景下仍能较快收敛,具有良好的鲁棒性和稳定性,且收敛速度优于快速一致性算法,若目标权重系数选取恰当,经济与环境结果均优于多目标NSGA-Ⅱ算法。
针对道路两侧绿篱修剪的目标检测过程中对算法实时性、轻量化的要求以及算法在实际检测中的精度和光照鲁棒性问题,提出一种基于YOLOv8n的算法MGW-YOLO,并给出一种新的C2f_ModuGhost+模块来替换主干网络中的C2f模块,其中设计的调制可变形卷积增加了偏移量特征通道数,以加速模型的推理,增强算法实时性。在颈部网络中引入分组空间卷积(GSConv)轻量级卷积技术和slim-neck设计范式,并通过融合标准卷积、深度可分离卷积和Shuffle模块的思想,降低模型的参数量,实现模型的轻量化。设计一种具有双重加权机制的Focal-WIoU损失函数,WIoU中的双层交叉注意力机制可有效降低多个绿篱相连和遮挡时的误检率,并且利用Focal Loss权重因子提升对特殊形状绿篱等难分类样本的检测精度。另外采用TRADES方法的对抗训练策略,在分类问题鲁棒性与精度之间进行有效权衡。实验结果表明,相比基线算法YOLOv8n,MGW-YOLO的mAP@0.5和mAP@0.5 ∶0.95分别提高了3.29和2.87百分点,在无人驾驶底盘上的实验结果表明,MGW-YOLO相较于原始算法的预处理时间、每帧平均推理时间和每帧后处理时间分别降低了0.7 ms、10.7 ms和0.7 ms,检测速度提升了15.7帧/s,适用于绿篱修剪机在道路两侧实时性作业的需求。
单类分类(OCC)技术如支撑向量数据描述(SVDD)和单分类支持向量机(OCSVM),已在计算机视觉、机器学习和生物特征识别等应用领域中获得了广泛关注。由于目前大多数的OCC模型均是基于L2范数设计的,存在解不够稀疏、噪声敏感、需要二阶以上优化等问题,难以胜任有实时性需求的目标检测任务。针对这一问题,采用L1范数取代了OCSVM中L2范数的间隔项,提出一种基于L1-OCSVM的单类分类器。上述的取代不仅继承了SVM的大间隔原理,而且导出的优化问题是一阶的。然而,由于L1范数的引入,非线性L1-OCSVM模型中的特征样本不如L2范数总可以成对出现,因而也无法使用L2范数的内积替换。提供一种等价优化策略,即直接最小化变量的L1范数项,因而获得的解极其稀疏,非常有利于实时检测。针对林业问题中的非刚性目标检测,如林火、林烟和树冠等,在无人机航拍图像和地面遥感图像上进行实验,结果验证了L1-OCSVM在目标检测准确率、稀疏性和实时检测方面的显著优势。
为提高高速公路上混合环境下车辆的行驶效率、减少交通事故的发生,提出一种基于近端策略优化(PPO)的车辆智能控制方法。首先构建一个融合深度强化学习和传统比例-积分-微分(PID)控制的分层控制框架,上层深度强化学习智能体负责确定控制策略,下层PID控制器负责执行控制策略。其次为了提升车辆的行驶效率,通过定义优势距离对观测到的环境状态矩阵进行数据筛选,帮助自主车辆选择具有更长优势距离的车道进行变道。基于定义的优势距离提出一种新的状态采集方法以减少数据处理量, 加快深度强化学习模型的收敛速度。另外,为了兼顾车辆的安全性、行驶效率和稳定性,设计一个多目标奖励函数。最后在基于Gym搭建的车辆强化学习任务仿真环境Highway_env中进行测试,对所提方法在不同目标速度下的表现进行分析和讨论。仿真测试结果表明,相比深度Q网络(DQN)方法,所提方法具有更快的收敛速度,且在两种不同目标速度下均能使车辆安全平稳地完成驾驶任务。