基于区块链整体架构介绍技术栈层级,以比特币为例分析区块链工作原理,从分布式账本的角度描述区块链账本存储模型和账本分类情况。区块链中的数据通过共识算法在全网传播、达成共识并存储。在不存在可信第三方的情况下,利用智能合约实现交易、事务及分布式应用的独立运行,保证区块链数据的完整性、安全性及合法性。同时将哈希算法与默克尔树相结合降低区块链存储空间,基于数字签名算法为区块链参与者提供匿名身份证明,并使用加解密技术进一步保护区块链数据隐私。针对区块链安全、隐私保护、钱包管理等问题对当前研究的不足和未来的研究方向进行分析和展望。
为满足计算机操作系统中日志数据的完整性保护需求,基于区块链技术,设计并实现可信日志存储与验证系统。存储阶段将本地日志的数据指纹上传至区块链,并保存区块链返回的存储凭证。验证阶段将本地日志的数据指纹与从区块链中获取的数据指纹进行比对,实现日志的完整性验证。分析结果表明,该系统具有去中心化、不可篡改、公开透明等特点,可有效检测日志数据的篡改行为。
针对学分银行模式下所存在的学习记录不透明、学分易篡改、学习成果认证和转换效率低等问题,提出一种区块链学习成果管控模型。设计模型结构并介绍相关原理,给出改进的实用拜占庭容错共识机制,以实现高效、低耗和可扩展的学习成果管控方式。通过建立学习成果认证和转换标准的智能合约,保证模型在自动化与透明环境下执行。实验结果表明,该模型能够为学分银行模式下学习成果的管理提供新的思路和技术支持。
区块链作为一种去中心化的分布式账本技术,主要功能是在无信任的节点之间达成共识。在区块链中合适的共识机制能提高区块链性能,保证交易数据安全。针对权益共识机制中存在的“无风险投注”问题,提出一种新的权益证明共识策略。该策略允许投票节点投出支持票和反对票,若节点对某一分叉投支持票且该分叉最后胜出,则节点获得收益,若节点对某一分叉投出反对票且该分叉最后失败,则节点也获得收益。在以太坊平台上部署智能合约验证该投票策略,结果表明,该策略可以正常执行,并且节点最终达到共识。
点对点加密是一种应用于在线通信软件的加密方式,多数的点对点加密通过非对称加密实现,但公钥分发的方案需要依赖于中心化的服务器,如果中心化的服务器攻击或被攻击则可能造成中间人攻击,从而导致聊天信息被泄露的风险。 为此,提出采用区块链技术进行审计的方式,构建一个去中心化的公钥分发方案。该方案所有公钥修改记录的摘要通过智能合约被保存在由CA共同维护的区块链上,使得恶意的修改记录可被追踪和验证,同时采用基于实用拜占庭容错(PBFT)改进的共识算法,达到低能耗和高效的拜占庭容错。实验结果表明,与原PBFT算法相比,该方案安全性明显提高。
基于神威太湖之光和神威蓝光超级计算机的巨量内存故障统计数据,建立P级超级计算机的内存失效时间模型。采用序列规则挖掘方法,分析内存失效序列模式,得到CPU节点上内存失效序列与后续内存失效的关联关系。通过协同分析方法研究并行应用的内存故障与内存失效特征,结果表明计算-访存-I/O密集型应用对内存故障影响较大,而应用类型对内存失效的影响有限,内存失效可能与内存芯片自身的可靠性有关。
针对命名数据网络(NDN)架构中多数缓存策略的冗余与低效问题,提出一种基于节点介数与边缘内容流行度的缓存放置策略BEP。结合节点的介数中心性与内容的动态流行度,同时考虑缓存的过滤作用,将最流行的内容放置在最重要的节点上,以高效利用稀缺的缓存资源。仿真结果表明,与经典NDN缓存策略LCE、LCD相比,BEP能有效提高缓存命中率,降低服务器负载。
OpenFlow支持通配符查找,会造成严重的流表查找性能瓶颈。为此,基于网络流量局部性,提出一种OpenFlow虚拟流表查找方法。通过缓存在数据包流中近期频繁出现的连接和对应的掩码,对大部分数据包直接定位其掩码,进而查找流表,无需逐个探测掩码数组。理论分析和实验结果表明,相比于目前主流虚拟交换机中的流表查找方法OFT-OVS,该方法的平均查找长度较小,可有效提升OpenFlow虚拟交换机的数据转发性能。
在分布式计算中常把任务之间的协同和通信关系转换为任务图模型,而任务调度是决定分布式计算性能的关键因素之一。为解决OSA、TDCS、RECS等传统经典算法处理器个数消耗多且存在大量冗余任务等问题,提出一种改进的任务图调度算法。该算法基于贪心策略复制任务的前驱以及前驱的前驱,减少调度长度和处理器空闲时间,并在不增加调度长度的前提下,通过合并簇及减少冗余任务降低处理器个数和处理器的负载。实验结果表明,该算法在处理器个数、加速比以及冗余任务比率上都有一定程度的优化,能提升分布式计算性能。
针对网络控制系统(NCS)的随机短时延问题,在传感器和执行器由时间驱动、离散控制器由事件驱动方式下,将NCS描述为切换系统模型。结合极点配置和特征根连续变化原理,根据时延与增广矩阵特征根最大模长之间的关系,将切换系统进行简化并设计相应的状态反馈控制器。实验结果表明,该控制器求解简单、易于实现,且可根据实际系统性能要求选择控制参数。
在二进制翻译中,库函数本地化处理是指不直接翻译源文件中的库函数而是使用本地目标机的库函数进行替换,以此提高翻译性能。针对国产平台二进制翻译中库函数处理翻译模式的相关特性,提出一种库函数解析处理机制,借助helper函数实现库函数替换操作。通过修改基本块划分规则,将库函数替换部分翻译的基本块进行合并,构建超级块,减少源程序中基本块划分数量与程序执行跳转次数,在保证翻译正确性基础上有效提高翻译效率。在动态二进制翻译器QEMU上进行的实验结果表明,与未优化的库函数处理翻译方式相比,翻译后程序加速比平均提升9%,有效提高了翻译效率。
为提高网络化嵌入式系统的安全性与可靠性,提出一种基于Actor模型的软总线设计方法,以解决分布式全数字仿真测试中系统及组件间的通信问题。采用以Actor模型为中心的发布/订阅机制,实现分布式节点之间的同步、异步通信。在此基础上,提出一种基于线程池技术的任务调度方法,实现Actor模型的协同工作,并通过规则链表进行Actor消息的处理及转发。实验结果表明,与HLA、OpenDDS总线相比,在大数据量并发处理的情况下,该软总线程序执行效率提升30%以上,能够满足网络化嵌入式系统测试对实时性与并发性的需求。
现有自动化网络流协议逆向分析方法处理含有大量二进制报文数据的协议时难以准确推断报文格式。为此,提出一种改进的自动化网络流协议逆向分析方法(PoKE)。通过为关键词添加位置属性,提取出二进制报文数据中长度较短的关键词。利用关键词对报文进行标记,根据标记序列建立协议状态转移模型,同时采用基于报文分割和关键词提取的递归循环方式,实现更全面的关键词信息提取。实验结果表明,与Biprominer方法相比,PoKE方法能提取出更多的关键词信息,从而建立更精确的二进制协议模型。
为减少多星座精密单点定位(PPP)数据处理过程中待估参数数量并提高定位精度,提出基于模糊度整数解的无电离层组合PPP性能评估方法。使用在线单点定位服务进行仿真建模,通过组合双频观测值消除电离层待估参数延迟并简化数据处理模型,利用模糊度固定技术实现PPP解算以降低定位误差。仿真结果表明,与单GPS系统PPP性能评估方法相比,静态模式下的GPS/GLONASS多星座PPP性能评估方法具有更高的定位精度和更快的收敛速度。
针对蚁群算法生成卫星网络拓扑时存在收敛速度慢、易陷入局部最优解的问题,从卫星网络高动态以及大时空尺度的特性出发,提出一种新算法SNTG-ACA。在满足卫星节点的可见性、星间链路长度以及链路连接时间的条件下建立潜在链路,提高信息素浓度的增量使蚁群算法快速收敛,并采用归一化思想求解全局最优解。仿真结果表明,与传统蚁群算法和引入遗传因子的蚁群算法相比,该算法具有更快的收敛速度,与链路长度最短策略和链路连接时间最长策略相比,生成的卫星网络拓扑更稳定。
FlexRay总线协议具有较强的错误检测机制,但缺少相应的重传机制,对于功能安全需求较高的应用,通信系统难以达到 相应的安全等级要求。为此,提出一种静态段消息重传调度策略。该策略以满足全局可靠性目标为前提,减小静态段报 文重传对带宽的占用,建立消息重传次数最优化数学模型,对所有消息通过消息传输总延迟时间最小化为目的建立混合 整数线性规划数学模型来分配相应的发送时隙及周期。运用建模语言AMPl及相关求解器对上述2个数学模型进行编程求 解,并将消息重传调度策略应用于汽车线控系统。实验结果表明,该调度策略在使通信系统满足相应功能汽车安全需求 等级的前提下,提高FlexRay总线带宽利用率和消息调度的成功率,同时实现各消息发送时延最小化。
针对异构环境下不同业务类型的终端对于接入网络的不同质量需求,提出一种基于改进Markov模型的网络选择算法。利用Markov模型的预测能力对即时类业务与非即时类业务终端构建相应的收益函数,应用数学迭代求解法得到长期期望收益最高的网络选择策略。仿真结果表明,该算法能有效提高网络资源利用率,降低网络阻塞率及终端网络切换次数。
为降低密集网络系统层内干扰并提高系统容量,提出一种基于分簇的用户资源分配方案。在分簇阶段,根据小基站到簇头的最大距离方差与簇头间最小距离对初始分簇结果进行消除、合并及分裂操作,实现网络拓扑变化情况下的自适应分簇。在资源分配阶段,通过用户剩余资源有效利用及资源块微调,保障用户业务速率。仿真结果表明,与现有用户资源分配方案相比,该方案提高了系统容量及用户公平性。
特征对齐在源域和目标域空间不一致时会导致负迁移现象。为此,提出一种基于GloVe和WordNet模型的迁移学习文本特征对齐算法。根据数据样本词性和类别对分类任务进行特征筛选,选择源域和目标域的领域共有词作为枢纽词,使用GloVe模型对齐源域和目标域中最相似的非枢纽特征。在此基础上,根据源域和目标域的非共有特征,通过WordNet模型对领域独立特征完成强语义对齐,同时利用含有枢纽特征的对齐三元组表示对齐特征。实验结果表明,该算法可有效降低特征维度,扩充特征空间,提高跨领域文本分类精度。
传统单一模型对广告点击率(CTR)的预测效果较片面,且广告日志数据存在稀疏性问题。为此,将高斯混合模型(GMM)与因子分解机(FM)相结合,建立一种广告点击率预测模型GMM-FMs。对原始数据集进行高斯聚类,在聚类后得到的数据子集上分别建立CTR预测模型,将多个预测模型的结果进行有效加权得到最终结果。实验结果表明,相比传统逻辑回归与FM模型,该模型在训练集与测试集比例不同时均能取得较高的AUC值。
在兴趣点(POI)呈稀疏分布时,现有时间依赖路网中的k近邻查询方法效率较低,且无法高效支持多类型的POI查询。为此,建立基于POI分布的空间索引结构TDG。根据路径权值上、下界对预计算路径进行剪枝优化,在此基础上,提出一种索引更新策略与基于TDG的k近邻查询算法。实验结果表明,与启发式查询算法相比,该算法的扩展节点数量平均减少87.5%,查询响应时间平均缩短33%~66%。
为改善云数据中心的能耗、负载均衡性和服务等级协议(SLA)违背率,对虚拟机放置策略进行优化。基于IaaS环境,提出一种基于机器学习的虚拟机迁移调整方法。根据资源消耗的互补性和不均衡性对虚拟机进行预放置,使用深度神经网络预测物理机负载等级,并利用深度Q网络调整物理机数量。实验结果表明,该方法能够有效均衡负载分布,降低能源开销和SLA违背率。
针对强杂波环境下慢动目标检测存在的多普勒频移低、杂波干扰强、特征提取困难等问题,提出一种多维特征融合的检测算法。利用时频变换和脉冲压缩解析回波信息,提取目标回波时频域和距离像的特征,将特征串联输入到深度自编码网络中进行融合。深度自编码网络通过自主学习提取目标不同维度的特征,增强多维特征联合检测性能。仿真结果表明,与直接利用单域特征的深度自编码以及利用SVM进行目标检测的算法相比,该算法能有效融合时频域与距离像特征,实现特征互补,提高目标检测的鲁棒性与识别精度。
为使智能家居系统从传感器网络返回的数据中自动识别用户行为并生成个性化服务策略,提出一种引入惩罚项的随机森林算法。对每次迭代过程中使用的属性集设置不同的惩罚项因子,生成尽可能不同的决策树,从而兼顾集成算法的多样性与分类精度。在UCI、CASAS数据集上的实验结果表明,与传统集成分类算法Bagging、Adaboost相比,该算法具有更高的分类精度与噪声鲁棒性。
生成对抗网络(GAN)在训练过程中未能有效进行生成器与鉴别器间的同步更新,导致模型训练不稳定并出现模式崩溃的现象。为此,提出一种基于分段损失的生成对抗网络PL-GAN。生成器在不同的训练时期采用不同形式的损失函数,同时引入真实样本与生成样本之间的特征级损失,从而使鉴别器提取的特征更具有鲁棒性。MNIST和CIFAR-10数据集上的实验结果表明,与regular GAN、feature-wise GAN相比,PL-GAN具有更高的分类精度与运行效率。
为避免传统MOEA/D算法使用固定领域规模易造成种群进化效率降低的情况,提出一种基于自适应邻域策略的改进算法。设计一种能够反映子问题进化幅度和种群进化状态的判断机制。针对进化过程中的收敛性和分布性需求,提出基于进化状态判断的自适应邻域策略,从而根据种群和子问题的进化状态设定不同的邻域规模。使用WFG系列测试函数进行实验,结果表明,该算法能有效平衡进化过程中种群的收敛性与分布性,提高解集的整体性能。
通过用户设定阈值获取高效用模式的算法效率较低且挖掘结果不一定满足用户需求。针对这一问题,基于EFIM算法提出一种高效用Top-k模式挖掘算法。由用户指定高效用模式个数来代替人为阈值设定。采用基于扩展效用和剩余效用的双重剪枝策略,有效控制模式的增长。在数据库投影过程中,应用事务排序及合并策略减少运行时间和内存消耗。实验结果表明,该算法在运行时间和内存消耗上具有较大优势,尤其适用于密集型数据集的高效用模式挖掘。
为使用户-物品评分、社会网络和社会化标签等异构信息融合到协同过滤推荐方法的最近邻寻找过程中,弥补冷启动用户单一维度信息的不足,提出一种多重图排序的冷启动推荐方法。通过分析用户之间可能存在的信任度构建关系网络,利用多重图排序模型得到目标用户的最近邻集合,进而产生目标用户的推荐列表。实验结果表明,与基于用户的协同过滤推荐方法相比,该方法能有效地提高冷启动用户的个性化推荐准确性和推荐覆盖率。
铝轮毂背腔字符分辨率较低、背景噪声较大,对其进行识别时不易提取几何特征和纹理特征。为此,提出一种基于改进卷积神经网络(CNN)的字符识别方法。在原始CNN的基础上引入改进的inception结构对网络构架进行优化,以提升计算资源的利用率,并在保持网络计算资源不变的前提下增加网络的宽度和深度,降低字符识别时间。实验结果表明,该方法训练准确率达99%以上,识别准确率达98.5%,识别效果优于支持向量机、BP神经网络等方法。
基于带限相位相关的指静脉识别算法通常忽略带限窗口的影响,其识别精度和速度有待提高。为此,提出一种修正的带限相位相关算法。根据指静脉频谱图及其成像特征设计并提取带限和遍历参数,利用相关系数峰值完成图像的匹配识别。在SDU-MLA、THU-FV和NUST-FV 3个指静脉数据库上进行实验,结果表明,该算法的指静脉识别速度和精度得到提高。
结合锚点领域回归与稀疏表示方法,提出一种改进的图像超分辨率方法。通过对高分辨率图像采用模糊和下采样操作生成低分辨率图像,基于锚点邻域回归的线性映射函数训练投影矩阵,利用稀疏表示的方法训练和学习稀疏字典对。在图像放大阶段,根据训练好的投影矩阵重建主要高频特征,利用稀疏字典对补充残差高频特征。实验结果表明,该方法能较好地保持图像的局部细节信息,减少块效应和伪影效应。
纹理是天气形势图的突出特征,有效地从天气形势图提取并表示其纹理是实现雾型实时在线预报的基础。基于此,提出一种改进的局部二值模式算法,通过调整局部二值模式(LBP)算子中二进制多项式的权重,实现其提取特定方向上纹理特征的目标。将江苏地区2010年—2017年500张浓雾天气形势图作为数据集,采用Chi统计法匹配测试数据与基准数据的相似度进行天气分类。实验结果表明,该算法的准确率、虚警率及临界成功指数分别为0.884、0.15和0.76,均优于LBP算法,具有较高的识别准确性与可靠性。
在细粒度图像的大量局部特征中,只有少量特征具有判别性,其提取较为困难。为此,提出递归深度混合关注网络方法。通过在卷积结构单元中添加通道关注模块和空间关注模块,实现网络的混合关注。以第1路网络输出特征的空间响应值为依据切割原图,并将切割后的图像放大输入第2路网络,进行由粗到细的网络递归。将2路网络提取的特征进行级联融合。在公开数据集Stanford Dogs、Stanford Cars中进行对比实验,结果表明,该方法的分类精度分别为87.1%、92.4%,优于FCAN、HIHCA等方法。
针对传统目标检测算法实时性较差且在面对复杂云层干扰时虚警率高的问题,提出一种基于人类视觉系统的小目标快速检测算法。利用局部对比度测量方法计算候选目标,根据拉普拉斯高斯尺度空间理论,计算候选目标处的多尺度滤波响应,进而通过自适应阈值分割获取真实目标。实验结果表明,该算法的检测率高达97%,虚警率低于3%,且能够在5 ms内完成目标位置计算。
为获得精确、完整的目标区域分割图,提出一种基于对称性区域过滤的检测方法来进行图像分割。利用改进的简单线性迭代聚类算法将图像分割成若干超像素,并以超像素为节点建立吸收马尔科夫链。计算转移节点到吸收节点的被吸收时间,将其作为显著值来获取显著图。根据图像目标区域的对称性特征,对显著图进行对称性检测,获取对称轴,通过两侧像素点到对称轴的距离对图像显著值进行区域过滤,从而获得目标图像分割区域。实验结果表明,该方法提取的图像显著目标区域较阈值分割法、最小生成树法和LRR法提取结果更为完整。
哈希方法因快速及低内存的特点广泛应用于大规模图像检索中,但在哈希函数构造过程中对数据稀疏性缺乏研究。为此,提出一种无监督稀疏自编码的图像哈希算法。在哈希函数的学习过程中加入稀疏构造过程和自动编码器,利用稀疏自编码的KL差异对哈希码进行稀疏约束,以增强局部保持映射过程中的判别性。在CIFAR-10数据集和YouTube Faces数据集上进行实验,结果表明,该算法平均准确率优于DH算法。
传统流媒体网络因流媒体数据量较大的特点,使服务器的负载重、主干网压力大,从而导致网络吞吐量降低。为此,提出P2P流媒体资源调度算法。通过引入节点能力度和数据块优先级概念,构建多层管理流媒体系统模型。在此基础上,给出多源节点协同调度算法。实验结果表明,与基于数据块优先级的资源调度算法、先来先服务算法相比,该算法能有效缩短系统启动时延,提高播放连续度。
为使无线Mesh网络(WMN)中的视频实现自适应传输,提出一种软件定义网络(SDN)架构下的可伸缩视频传输系统。通过SDN架构将WMN的控制平面分离出来并由控制器负责集中控制和优化。将视频传输问题建模为拥塞概率约束下的视频质量最大化问题,并给出一种基于大偏差理论的线上自适应算法对该问题进行求解。实验结果表明,相比基线算法,该算法的PSNR值、MOS评分较高,平均丢包率较低。
在流媒体边缘云资源调度中,传统启发式方法或规划方法多数存在自适应性不足、时间复杂度高等问题。基于迁移代价、负载均衡等约束,提出一种流媒体边缘云会话调度策略。以流媒体边缘云系统的状态信息作为属性特征,结合深度学习与确定性策略进行梯度强化学习,以解决用户请求接入问题。实验结果表明,该策略具有较好的请求接入效果,且能够降低迁移代价,同时缩短了运行时间。
现有基于时域金字塔的特征提取方法不能学习视频帧和视频段各自之间的时间依赖性信息以及未充分利用视频时域的分层结构信息,造成视频分类特征提取不充分。为此,提出一种基于SRU的多层次多粒度时空域深度特征提取方法。利用卷积神经网络提取视频的低、中、高3个层次的帧特征,构建时域金字塔,同时采用级联SRU学习视频时间依赖性和时域的分层结构特征,通过聚合3个层次的时域金字塔得到视频的多层次多粒度全局特征。在数据集UCF101和HMDB51上的实验结果表明,与DTPP方法、TLE方法相比,该方法提取的特征具有较好的表征能力和鲁棒性。
在音乐生成过程中,charRNN方法只能对单音音乐进行训练,而不适用于多个乐器合奏的复音音乐。为使charRNN能适用于复音音乐,提出一种将MIDI音乐转换为一种基于一定语法规则的音乐描述语言的方法。利用charRNN完成文本训练,得到音乐生成模型,基于十二平均律方法获得音乐的统计特性,从而比较不同音乐片段间的差异。实验结果表明,该方法生成的音乐与真实音乐在结构和听感上比较相似,可用于多轨道复音音乐的自动生成。
为解决身份认证过程中可能会出现的打印攻击、视频重播攻击等安全问题,提出一种多线索融合人脸活体检测方法。利用金字塔LK光流追踪视频帧并将其进行剪切波变换,以获取图像质量特征,通过卷积神经网络对数据集进行网络微调,得到真假活体。在Print-attack数据库和CISIA数据库上进行实验,结果表明,与LFDNet方法相比,该方法具有较高的人脸活体检测准确率,可用于抵制欺骗攻击。
基于LBP-TOP、HOG-TOP、HIGO-TOP特征描述子的微表情识别方法通常提取到的特征向量维度较高,计算复杂度较大,运行时间较长,识别准确率较低。为此,提出一种基于信息增量(IG)特征选择的识别方法。运用IG特征选择方法对高维度特征向量进行降维,提高识别效率。运用支持向量机分类器的线性核、卡方核、直方图交叉核进行留一交叉验证,以完成分类任务。在SMIC和CASME2数据集上进行实验,结果表明,经IG选择后,特征向量在2个数据集上的识别准确率分别达到76.22%和73.68%,分类所需时间分别缩短为原方法的3.67%和3.64%,验证了该方法的有效性。
为了提高飞机地面自动牵引滑行导航控制系统的精度,提出一种改进的纯追踪算法。基于纯追踪算法对飞机牵引车系统的路径进行跟踪控制,将简化的两轮模型作为其运动学模型。融合经典纯追踪算法及改进算法确定新的预测目标点,以减少轨迹误差。采用偏差统计的方法实现不同预测距离下最优融合系数的选择,提高控制精度。仿真结果表明,该算法的路径轨迹误差控制在0.5 m范围内,满足飞机自动牵引滑行的精度要求,验证了其可行性和有效性。
自动化集装箱码头的出口箱进箱选位是自动化码头运营的难点之一。针对带中转排的自动化码头出口箱进箱选位问题,提出一种两倍状态多阶段动态规划算法。在阶段划分时,将阶段数量增加至原有的2倍,以适应2种状态转移,而在进行状态转移时,对2种状态分别计算来获得更优的结果。实验结果表明,与现有的动态规划方法相比,该算法通过应用更精确的状态转移方程,可使翻箱数量降低20%。
针对智能干扰威胁下的跨层抗干扰通信问题,提出一种基于分层Q学习的联合抗干扰学习算法。根据用户与干扰机之间的路由信道选择问题构建分层Stackelberg博弈模型,干扰机选择最佳干扰信道实施干扰,用户与干扰机进行路由信道博弈,选择最佳路由及信道实现通信。仿真结果表明,与固定路由-随机信道选择算法、随机路由-最佳信道选择算法和随机路由-随机信道选择算法相比,该算法具有更好的抗干扰性能。
RRT*算法在路径规划过程中确保了其概率完备性和渐进最优性,但仍存在收敛速度慢且产生大而密集的采样空间等问题。为此,在RRT*的基础上提出一种新的离线路径规划算法。在开始采样前快速瞄准目标区域,生成包含起始点与目标点的有界连通性区域。采用人工势场法优化采样过程,减少计算量,在势场合力的作用下有界区域内执行目标偏差采样,调整采样区域,在较短时间内生成较优路径。实验结果表明,当生成的路径成本相同时,该算法所需的迭代次数和执行时间远小于RRT*算法,算法效率更高。
目前的路口识别算法多数在密集采样的全球定位系统(GPS)轨迹数据基础上,采用车辆行驶方向转变作为依据进行路口识别。但稀疏采样的GPS轨迹数据由于采样时间间隔较长,无法准确模拟出车辆行驶方向。为此,针对交叉路口容易发生停车现象的特点,提出一种GPS轨迹数据的路口识别方法。从稀疏采样的GPS轨迹数据中提取出行驶轨迹的停车点及其后续点作为研究对象,依据改进GDBSCAN算法对提取出的停车点进行聚类,判断停车事件发生的热区。运用提取出的后续点对热区进行连通性计算,并根据连通性确定是否存在路口。实验结果表明,该路口识别方法具有较好的识别能力,且与DBSCAN算法相比,聚类速度明显提高。
Event-B共享变量和共享事件方法可将大型系统分解成多个子系统,并独立建模开发,但其需要手工干预以实现模型间事件的组合。为提高组合效率,提出一种针对模型的自动化组合理论,并开发自动化组合工具原型。为在精化模型中逐步引入模块调用,改进PROG方法,开发自动精化工具原型。通过2个应用案例,验证了自动化组合工具能自动组合事件,自动精化工具能减少调用变量的数量,从而增强系统模型的可读性和可维护性。
结合语言模型条件随机场(CRF)和双向长短时记忆(BiLSTM)网络,构建一种BiLSTM-CRF模型,以提取商情文本序列中的招标人、招标代理以及招标编号3类实体信息。将规范化后的招标文本序列按字进行向量化,利用BiLSTM神经网络获取序列化文本的前向、后向文本特征,并通过CRF提取出双向本文特征中相应的实体。实验结果表明,与传统机器学习算法CRF相比,该模型3类实体的精确率、召回率和F1值平均提升15.21%、12.06%和13.70%。
传统的船舶重量估算方法多数存在误差大、成本高等问题。为此,提出一种基于深度学习的船舶重量估算算法。利用多层神经网络逐层无监督学习训练初始化参数,通过反向梯度下降的方式微调参数。运用深度堆栈自编码网络挖掘深层次的数据特征,并在ShipWE自建数据库上进行分析。实验结果表明,与传统吃水估算方法相比,该算法具有更强的稳定性和更高的准确性,与BP神经网络算法和径向基函数神经网络算法相比,该算法的精度更高,能有效解决船舶估算可信度低的问题。