2. 数学工程与先进计算国家重点实验室, 郑州 450001
2. State Key Laboratory of Mathematical Engineering and Advanced Computing, Zhengzhou 450001, China
开放科学(资源服务)标志码(OSID):
近年来,云计算和大数据技术的发展普及推动了互联网服务模式的快速变革,以数据中心为代表的新一代信息基础设施成为国内外社会建设发展的重点方向。数据存储系统作为信息基础设施中的重要组成部分,未来将承载更多的核心业务数据与用户隐私数据,因此,其安全性也越来越受到关注和重视。然而,随着“棱镜门”[1]等各类网络安全事件的频发,产业界和学术界逐渐意识到传统安全手段的缺陷,以防火墙[2]、IDS[3]、IPS[4]等为代表的被动防御方法已经难以满足新一代信息技术背景下人们对网络安全的需求[5]。
网络空间拟态防御(Cyberspace Mimic Defense,CMD)[6]是一种新型的主动防御技术,其基于动态异构冗余(Dynamic Heterogeneous Redundancy,DHR)的拟态构造模型,赋予目标对象内生安全[7]功能属性,使其能够有效应对未知漏洞、后门等攻击威胁,从而克服传统防御手段的不足。拟态存储是CMD技术在数据存储系统上的具体实现,是解决新一代信息基础设施中数据与存储系统安全性问题的可行方案[8]。目前,研究人员已经在分布式存储架构中成功导入拟态DHR模型,并验证了其提升数据与系统安全的有效性[8]。但与此同时,学者们也总结出拟态存储系统中需要进一步关注并解决的诸多问题,包括大规模集群异构冗余化带来的开销和可实现性问题、执行体运行状态不一致问题、拟态构造的调度和裁决策略问题等[9]。
本文针对拟态存储中执行体运行状态不一致问题展开研究,介绍拟态防御技术的相关研究以及拟态存储基本架构,分析和验证系统运行过程中由元数据随机性所导致的问题,在此基础上,设计实现相应的校正同步方法,并在实际系统中对元数据再同步方法的性能进行验证。
1 相关工作网络空间拟态防御是实现信息系统内生安全的一种普适性方法,目前已经在工业控制处理器[10]、路由器[11]、DNS服务器[12]、SDN[13-14]等领域得到一定的应用。拟态DHR是网络空间拟态防御方法中的核心模型,其结构如图 1所示。
![]() |
Download:
|
图 1 拟态DHR模型 Fig. 1 Model of mimic DHR |
DHR模型[15]的构建基础是一定数量的异构执行体,它们在功能上等价,但基于不同的硬件平台、操作系统、运行环境等,因此,不同执行体所携带的漏洞后门也不完全相同,会对不同的攻击产生独立的响应输出。通过对多个执行体输出进行比较验证,能够有效判断系统状态,屏蔽异常而得到正确的结果,并且有针对性地对受攻击执行体进行清洗、替换等操作。拟态DHR模型具有构造安全的普适性,对已知和未知漏洞后门等均能实现有效防御,大幅增强了网络应对外部入侵和内部渗透的能力[6, 16]。文献[6]指出,DHR结构的防御成本随着执行体数量N线性增加,但防御效果是非线性增加的,当N≥3时,其安全性已经取得大幅提高。综合考虑成本和安全性,在已实现的拟态防御系统中,一般采用3个异构执行体,因此,本文在模型分析和实际测试时,将执行体数量设为3。
由于DHR模型需要对防护目标构建异构冗余的多执行体,因此在分布式存储架构中导入拟态防御方法要尽可能选取系统核心功能与数据的承载体,避免造成过大的成本和性能开销。文献[8]比较了分布式存储系统中对不同对象进行拟态化设计的成本、可实现性以及有效性,最终确定将元数据功能节点(NameNode)作为拟态防护边界,以尽可能取得最大的安全/成本收益比,其拟态存储的基本架构如图 2所示。
![]() |
Download:
|
图 2 拟态存储的基本架构 Fig. 2 The basic architecture of mimic storage |
面向元数据服务的拟态存储架构主要对元数据服务器进行拟态化改造,包含异构冗余化的执行体集合、配合分发裁决代理和调度控制器,从而实现防御功效。拟态存储用拟态化的元数据服务结构取代一般分布式存储系统中单一的元数据节点,对外的基本功能一致,但内部结构和处理流程对外是不可见的。在拟态化元数据服务结构内部,主要包括以下3个模块:
1)输入输出代理,主要负责分发客户端请求、对执行体执行结果进行裁决和反馈。
2)异构元数据执行体集合,包括若干个异构的元数据执行体,各自独立地执行客户端请求并分别向输入输出代理反馈执行结果。
3)调度控制器,按照一定规则对执行体进行下线、清洗、上线等操作。
当元数据服务结构收到来自客户端的请求消息时,输入输出代理将消息分发给所有在线的执行体,执行体分别执行操作并将结果发送到输入输出代理,输入输出代理按照一定规则对执行结果进行裁决,得到最终的输出消息,同时将裁决结果发送给调度控制器,调度控制器根据裁决结果对执行体进行下线、清洗、上线等操作。为了保证多个执行体的功能等价,不仅需要在设计和开发阶段保证执行体功能的一致性,还需要在存储系统工作过程中保持执行体状态的一致性,否则存储系统将无法正常运行。
2 元数据随机性问题所有执行体是独立运行且互不可见的,而每一个元数据执行体中都保存着用户所有的元数据信息,如果这些执行体中保存的元数据信息出现了不一致的情况,将会导致执行体输出不一致、裁决出现异常等问题,严重影响拟态存储系统的正常工作。
在元数据节点NameNode中存在随机性的算法和逻辑,在工作正常的情况下也会出现若干NameNode执行结果不一致的问题,如写入文件指令会引发执行体随机性逻辑,客户端发送一个写入文件的指令,执行体会随机选择一个数据节点,然后在该节点的同一机架和其余机架上分别再随机选择一个数据节点,即每个执行体会给出3个具有一定随机性的写入地址,此时不同的执行体内部状态就会大概率出现不一致的情况。不同步的元数据执行体示意图如图 3所示。
![]() |
Download:
|
图 3 不同步的元数据执行体示意图 Fig. 3 Schematic diagram of unsynchronized NameNode executors |
图 3所示流程为:
1)客户端写入一个文件M。
2)执行体返回3组不同的写入地址。
3)裁决器按照一定策略对执行体的返回结果进行裁决。
4)客户端得到最终的写入地址。
可以看出,虽然客户端得到了预期的返回消息,但是此时3个执行体所存储的元数据不一致,即执行体的状态不一致。本文在真实的拟态存储环境中进行测试,结果如图 4所示,可以看出,当执行存在随机性的指令时,执行体状态出现了不一致的情况,此时如果访问写入的文件,就会出现不可预知的错误。
![]() |
Download:
|
图 4 执行体状态不一致的测试结果 Fig. 4 Test results of inconsistent states of the executors |
元数据的状态同步是拟态裁决机制正常工作的基础,然而元数据随机性问题会使得系统产生误判,导致整个拟态存储系统无法正常运转。因此,在拟态存储中,解决NameNode同步问题显得尤为重要。
3 元数据再同步方法 3.1 解决思路不同于传统的关系型数据库,在分布式存储系统中存在CAP原则,即在分布式系统的一致性(Consistency)、可用性(Availability)、分区容错性(Partition Tolerance)3个属性中,最多只能同时满足2个,三者不可兼顾。因此,在拟态存储架构设计中必须有所取舍,根据分布式系统CAP原则,要保证可用性和分区容错性,只能牺牲一致性[17]。一致性一般分为如下3类:
1)强一致性,即客户端操作完成之后马上就可以访问更新过的值。
2)弱一致性,即客户端操作完成后,不能保证马上访问到更新过的值,系统也不保证访问时效。
3)最终一致性,其为弱一致性的特殊形式,保证在没有后续操作的前提下系统最终返回上次更新的值[18]。
在工程实践中,为了保证系统的可用性,通常将强一致性需求转换成最终一致性需求[19-20]。基于这个思路,本文考虑用最终一致性的流程和相关机制来解决元数据的随机性问题。
3.2 再同步方法针对上述拟态存储中元数据的随机性问题,本文提出一种元数据再同步方法,其基本流程如图 5所示。
![]() |
Download:
|
图 5 元数据再同步方法流程 Fig. 5 Procedure of metadata resynchronization method |
本文元数据再同步方法在输入输出代理中增加NameNode执行体状态监视模块并引入映射同步机制,系统工作流程如下:
1)客户端发送请求消息。
2)输入输出代理将消息转发给各个执行体。
3)执行体进行消息处理,并将响应结果发送给裁决器。
4)输入输出代理将裁决结果发出。
5)状态监视模块检测到执行体状态不一致,建立映射同步,记录输入指令和输出结果的映射关系。
6)输入输出代理收到上报消息。
7)状态监视模块将上报信息反馈给各个执行体进行同步。
8)同步完成后执行体给状态监视模块发送确认信息。
9)状态监视模块清除映射同步信息,完成同步。
在同步过程中,整个流程最关键的步骤在于映射同步的建立。当状态监视模块检测到执行体状态不一致时,立即记录客户端的指令和裁决器的输出结果,建立两者的映射关系。在元数据再同步的过程中,如果客户端再次访问该条元数据而不经过执行体,通过映射同步可以直接给出访问结果。如果缺少映射同步,客户端访问时执行体状态尚未完成同步,依然无法得到正确的结果。映射同步仅存续在元数据同步期间,当同步完成之后,映射同步失去作用并随即清除,从而减少资源占用。
4 实验评估本节将对元数据再同步方法进行实验,以验证该方法的有效性,并评估其对服务性能的影响,从而为后续研究提供依据。实验内容主要分为2个部分:
1)功能测试,即在真实的拟态存储环境中添加再同步方法的相关功能代码,测试其能否有效解决元数据随机性问题。
2)性能测试,主要通过对比测试的方法观察元数据同步过程中的开销,以评估再同步方法对拟态存储系统性能的影响。
4.1 实验环境本次实验在拟态存储工程样机上进行。在硬件环境方面,基于异构化组件构建物理服务器,部署3台元数据执行体和4台数据节点,另外还包括1台分发裁决节点、1台内部管理节点以及相应的交换机、测试客户端机。在软件方面,在元数据执行体上分别部署CentOS、Solaris和国产麒麟操作系统,存储中间件使用典型的大数据分布式存储Hadoop 2.7.3,抓包工具采用Tcpdump version 4.9.2,libpcap version 1.5.3,分析工具使用集成hadoop协议的wireshark版本,性能测试采用TestDFSIO标准软件工具。整个实验环境拓扑如图 6所示。
![]() |
Download:
|
图 6 测试环境拓扑 Fig. 6 Test environment topology |
在功能测试中,通过外部存储客户端发起可触发元数据执行体随机性逻辑的上传文件指令,然后在分发裁决节点进行抓包分析,并在内部管理平台登录查看各个执行体的工作日志,观察系统是否能够通过再同步方法解决随机性逻辑导致的状态不一致问题;在性能测试中,通过外部存储客户端分别对再同步功能开启前后发起基本读写命令,以评估本文方法的实际运行开销。
4.2 功能测试通过文献[21-22]可知,Hadoop分布式存储HDFS的数据块分配算法Block_allocate具有随机性,因此,本次实验选取能够触发该算法的数据写入操作(hdfs-put)进行测试,各个元数据执行体(简记为NNx)返回的消息包结果如图 7所示。
![]() |
Download:
|
图 7 数据块分配返回的消息包对比 Fig. 7 Comparison of message packets returned from data block allocation |
图 7显示,NN1分配的数据节点为DN1、DN3、DN4,而NN2和NN3分配的数据节点为DN2、DN3、DN4,元数据执行体Block_allocate算法的随机性被触发。从图 8可以看出,各个NN对上传文件的初次分配位置不同,其内容与图 7中网络消息包的返回一致,即元数据执行体运行状态发生不一致的情况,此时继续在分发表决节点抓包,观察实际存储的数据节点是否发起了再同步消息。
![]() |
Download:
|
图 8 不同执行体上的块分配日志记录 Fig. 8 Block allocation logging on different executors |
如图 9所示,DN1、DN3、DN4为实际存储该文件的数据节点,它们在接收到上传数据后向系统上报自己的接收事件(RECEIVED),分发表决器将此消息包再转发至各个执行体进行再同步操作,此时观察NN上的运行日志。图 10以初次分配DN2、DN3、DN4的NN3为例,可以观察到,NN3在收到RECEIVED消息包后,重新更新测试文件存储位置的信息,将实际发起再同步数据包的DN1、DN3、DN4添加为对应的存储节点,即本文的再同步设计生效。为了更直观地验证再同步方法的有效性,通过存储客户端对写入的测试文件进行读取,可抓取到系统响应数据包如图 11所示。
![]() |
Download:
|
图 9 分发表决器收到的再同步消息包 Fig. 9 Resynchronization message packet received by the distribution and voting machine |
![]() |
Download:
|
图 10 NN3执行体上的日志记录 Fig. 10 Logging on NN3 executor |
![]() |
Download:
|
图 11 再同步后数据块分配的返回消息包 Fig. 11 Returned message packet of data block allocation after resynchronization |
从图 11可以看出,在经过元数据的再同步后,当外部对测试上传文件发起请求,各个元数据执行体的返回结果均为DN1、DN3、DN4及其位置信息,可知其对应的元数据已经保持一致。继续重复上述操作并检查执行体状态,再同步机制均能解决元数据随机性问题,同步成功率可达100%。
4.3 性能测试性能测试基于标准的TestDFSIO工具对系统发起数据服务请求。由于本文的再同步方法并不涉及数据读操作,其主要解决数据写操作中出现的元数据随机性问题,因此性能测试以写操作作为主要请求内容。写容量大小设定为10 GB,在拟态存储配置单个块64 MB的条件下,对比再同步机制开启前后的性能。如图 12、图 13所示,客户端能够正常运行TestDFSIO测试工具且生成规定大小的文件,不报错。数据显示,当拟态存储未开启再同步机制时,整个过程耗时337.955 s,写入速率为30.488 MB/s;当拟态存储开启再同步机制后,总用时为349.180 s,写入速率为29.490 MB/s。可以看出,对于一个数量较大的连续写操作,再同步机制会造成一定程度的性能损失,但对于用户而言是可接受的,并且在实际应用场景下,读写操作通常是穿插进行的,再同步机制的开销能够更好地分散在写与写的操作间隙,从而在一定程度上缓解性能损失,提高用户体验质量。
![]() |
Download:
|
图 12 未开启再同步机制的写入测试结果 Fig. 12 Write test results without resynchronization mechanism |
![]() |
Download:
|
图 13 开启再同步机制后的写入测试结果 Fig. 13 Write test results with resynchronization mechanism |
为了解决拟态存储中的元数据随机性问题,本文对拟态存储工作流程进行分析,提出一种元数据再同步方法,以在不影响元数据对外服务的情况下实现NameNode执行体状态同步。在拟态存储真实环境中的测试结果表明,本文方法能够有效解决元数据随机性问题,保证拟态存储裁决机制的正常运行,提升拟态存储系统的稳定性。后续将进一步优化NameNode执行体同步过程,将带有随机性逻辑的功能部分迁移到分发表决代理或替换为伪随机工作模式,从而减少再同步的流程步骤,缩短时间开销,尽可能缓解同步过程造成的拟态存储系统处理性能下降问题。
[1] |
龙子夜, 李军, 张杰. "棱镜门"事件回顾与思考[J]. 计算机工程与应用, 2015, 51(S1): 392-444. LONG Z Y, LI J, ZHANG J. Review and reflection on the "Prism Gate" incident[J]. Computer Engineering and Applications, 2015, 51(S1): 392-444. (in Chinese) |
[2] |
OPPLIGER R. Internet security: firewalls and beyond[J]. Communications of the ACM, 1997, 40(5): 92-102. DOI:10.1145/253769.253802 |
[3] |
MANCINI L V, PIETRO R. Intrusion detection systems[M]. Berlin, Germany: Springer, 2008.
|
[4] |
PANDA B K, PRADHAN M, PRADHAN S K. Intrusion prevention system[EB/OL]. [2021-01-05]. https://www.geeksforgeeks.org/intrusion-prevention-system-ips/.
|
[5] |
斯雪明, 王伟, 曾俊杰, 等. 拟态防御基础理论研究综述[J]. 中国工程科学, 2016, 18(6): 62-68. SI X M, WANG W, ZENG J J, et al. A review of the basic theories of mimic defense[J]. Strategic Study of CAE, 2016, 18(6): 62-68. (in Chinese) |
[6] |
邬江兴. 网络空间拟态防御研究[J]. 信息安全学报, 2016, 1(4): 1-10. WU J X. Research on cyber mimic defense[J]. Journal of Cyber Security, 2016, 1(4): 1-10. (in Chinese) |
[7] |
邬江兴. 内生安全: 重新定义新基建的安全属性[J]. 中国科技产业, 2020(5): 7-9. WU J X. Endogenous security: redefining the security attributes of new infrastructure[J]. Science & Technology Industry of China, 2020(5): 7-9. (in Chinese) |
[8] |
郭威, 谢光伟, 张帆, 等. 一种分布式存储系统拟态化架构设计与实现[J]. 计算机工程, 2020, 46(6): 12-19. GUO W, XIE G W, ZHANG F, et al. Design and implementation of a mimic architecture for distributed storage system[J]. Computer Engineering, 2020, 46(6): 12-19. (in Chinese) |
[9] |
郭威. 分布式存储系统拟态化架构与关键技术研究[D]. 郑州: 战略支援部队信息工程大学, 2019. GUO W. Research on the mimicking architecture and key technologies of distributed storage system[D]. Zhengzhou: PLA Strategic Support Force Information Engineering University, 2019. (in Chinese) |
[10] |
魏帅, 于洪, 顾泽宇, 等. 面向工控领域的拟态安全处理机架构[J]. 信息安全学报, 2017, 2(1): 54-73. WEI S, YU H, GU Z Y, et al. Architecture of mimic security processor for industry control system[J]. Journal of Cyber Security, 2017, 2(1): 54-73. (in Chinese) |
[11] |
马海龙, 伊鹏, 江逸茗, 等. 基于动态异构冗余机制的路由器拟态防御体系结构[J]. 信息安全学报, 2017, 2(1): 29-42. MA H L, YI P, JIANG Y M, et al. Dynamic heterogeneous redundancy based router architecture with mimic defenses[J]. Journal of Cyber Security, 2017, 2(1): 29-42. (in Chinese) |
[12] |
王禛鹏, 扈红超, 程国振. 一种基于拟态安全防御的DNS框架设计[J]. 电子学报, 2017, 45(11): 2705-2714. WANG Z P, HU H C, CHENG G Z. A DNS architecture based on mimic security defense[J]. Acta Electronica Sinica, 2017, 45(11): 2705-2714. (in Chinese) |
[13] |
QI C, WU J, CHENG G, et al. An aware-scheduling security architecture with priority-equal multi-controller for SDN[J]. China Communications, 2017, 14(9): 144-154. DOI:10.1109/CC.2017.8068772 |
[14] |
LI J, WU J, HU Y, et al. DSL: dynamic and self-learning schedule method of multiple controllers in SDN[J]. ETRI Journal, 2017, 39(3): 364-372. DOI:10.4218/etrij.17.0116.0460 |
[15] |
PU L M, WU J X, MA H L, et al. MimicCloudSim: an environment for modeling and simulation of mimic cloud service[J]. China Communications, 2021, 18(1): 212-221. |
[16] |
邬江兴. 网络空间拟态安全防御[J]. 保密科学技术, 2014(10): 4-9. WU J X. Mimetic security defense in cyberspace[J]. Security Science and Technology, 2014(10): 4-9. (in Chinese) |
[17] |
李丹, 叶廷东. "异地多活"分布式存储系统设计和实现[J]. 计算机测量与控制, 2020, 28(4): 211-216. LI D, YE T D. Design and implementation of a "multi-active across data centers" distributed storage system[J]. Computer Measurement & Control, 2020, 28(4): 211-216. (in Chinese) |
[18] |
何俊杰. 基于最终一致性的HDFS读写技术的研究与优化[D]. 上海: 上海交通大学, 2016. HE J J. Research and optimization of HDFS read-write technology based on eventual consistency[D]. Shanghai: Shanghai Jiaotong University, 2016. (in Chinese) |
[19] |
杨成荣, 刘峻松, 孙新杰, 等. 基于微服务架构的数据一致性方法研究[J]. 电脑知识与技术, 2020, 16(8): 266-268. YANG C R, LIU J S, SUN X J, et al. Research on data consistency method based on microservice architecture[J]. Computer Knowledge and Technology, 2020, 16(8): 266-268. (in Chinese) |
[20] |
李岩, 唐真. 一种高并发下最终一致性算法及实现[J]. 网络安全技术与应用, 2020(7): 47-49. LI Y, TANG Z. A final consensus algorithm and its implementation under high concurrency[J]. Network Security Technology and Application, 2020(7): 47-49. (in Chinese) |
[21] |
钟将, 杨雷. 面向海量新闻数据的HDFS节能存储策略[J]. 计算机工程, 2015, 41(12): 48-53. ZHONG J, YANG L. HDFS energy-saving storage strategy for massive news data[J]. Computer Engineering, 2015, 41(12): 48-53. (in Chinese) |
[22] |
SHVACHKO K, KUANG H, RADIA S, et al. The hadoop distributed file system[EB/OL]. [2021-01-05]. https://storageconference.us/2010/Papers/MSST/Shvachko.pdf.
|