2. 合肥综合性国家科学中心人工智能研究院, 合肥 230088;
3. 中国科学技术大学 先进技术研究院, 合肥 230031
2. Institute of Artificial Intelligence, Hefei Comprehensive National Science Center, Hefei 230088, China;
3. Institute of Advanced Technology, University of Science and Technology of China, Hefei 230031, China
开放科学(资源服务)标志码(OSID):
在传统TCP/IP网络架构中,用户提出服务请求,网络将用户请求传送到服务器,服务器执行用户请求,并在完成所要求的操作后将结果返回用户。当用户请求在网络缓存区中找到对应内容时,即发生缓存命中,节点会将对应内容封装后发送给请求者。信息中心网络(Information-Centric Networking,ICN)是一种以内容为中心的新型网络架构,特点是网络拓扑中的所有节点都有缓存区。在ICN中用户仅关心内容本身,网络对内容进行统一标识并基于内容进行定位、路由和传输[1]。缓存的存在使得热门的内容更接近于用户,选取合适的缓存策略能够有效减小用户访问延迟和服务器负载,并缓解网络链路负担[2-3]。目前,ICN主要包括命名数据网络(Named Data Networking,NDN)、内容中心网络(Content Centric Networking,CCN)和发布/订阅互联网路由范式(Publish/Subscribe Internet Routing Paradigm,PSIRP)等[1, 4]典型架构。
随着社会信息量的日益增加,网络内容更新速率越来越快。如果缓存存储过期内容,请求到达时则不会发生缓存命中,因此缓存一致性维护受到研究人员的广泛关注[5-7]。目前,缓存一致性维护研究主要分为验证和失效[6-7]两类策略。验证策略即缓存定期向服务器询问内容是否过期,是一类实现缓存弱一致性的策略,原因在于源服务器的内容可能在两次验证之间发生更新,但是一些实时性要求较高的应用期望获得最新的内容。失效策略是一类实现缓存强一致性的策略,主要分为被动查询、主动移除、主动更新和主动选择更新4种[7]。在被动查询策略中,当缓存中发现请求对应副本时,缓存会首先询问服务器,若服务器告知这是最新的内容,则会发生缓存命中。在主动移除策略中,当服务器更新某个内容时,会推送消息到所有的缓存节点,过期的内容将被移除。在主动更新策略中,在服务器更新内容后,不但会将缓存中过期的内容移除,还会推送最新的副本到缓存中。主动选择更新策略是对主动更新策略的改进,通过只推送一些较为热门内容的副本而减轻服务器的负担。
目前,针对缓存强一致性研究的数学模型普遍基于最近最少使用(Least Recent Used,LRU)替换策略[6-7],但在实际环境中,根据应用场景和缓存节点能力的不同,需要采取q-LRU、先进先出(First In First Out,FIFO)、随机替换(Random Replacement,RANDOM)等不同的缓存替换策略。同时,建立准确的缓存分析模型对于构建资源消耗较小且性能更高的网络结构具有重要作用。本文提出一种缓存强一致性策略下的通用建模方法,在内容失效的时间间隔分布不同时,模型计算可达到较高的精确度。通过实验以验证模型精确度并探究不同缓存参数和应用场景下的缓存性能变化。
1 相关研究针对缓存到达最大容量后在新的内容到达时的内容替换问题,研究人员提出了LRU、FIFO、RANDOM、LFU、q-LRU、gLRU[8]、TinyLFU[9]等一系列缓存替换算法。
1.1 缓存分析模型建立准确的缓存分析模型有助于更好地分析缓存行为。因此,在进行缓存部署前,需要进行资源估算,选择合适的缓存替换策略,从而有效减少资源消耗。文献[10]证明了RANDOM和FIFO在独立引用模型(Independent Reference Model,IRM)下具有相同的分析效果。文献[11]给出LRU和FIFO缓存命中率的近似解法,提高了计算效率。文献[12]将极限定理应用于平均场相互作用模型,推导出RANDOM策略的缓存命中率公式。文献[13]使用连续时间Markov链对LRU和FIFO的瞬时命中率进行研究。文献[14]提出一种基于列表的缓存替换策略的缓存分析模型,具有很高的精确度。
文献[15]提出使用特征时间近似的方法描述缓存在LRU中的生存行为,称为Che近似。文献[16]证明了Che近似在计算缓存命中率时具有极高的准确度。至此基于特征时间近似的缓存分析方法受到研究人员的广泛关注[17-18]并取得了一系列研究成果[19-21]。文献[22]在Che近似的基础上,提出一类可以用特征时间近似的缓存替换策略的缓存命中率计算公式。
上述研究推进了缓存替换策略的数学分析模型向更简单精确的方向发展,但考虑的都是理想模型,并未考虑存在缓存一致性等问题的实际应用场景。
1.2 缓存一致性分析模型缓存一致性维护对一些实时性要求较高的应用而言非常重要。缓存一致性策略主要分为验证和失效。基于生存时间(即特征时间)的缓存替换策略是一种较为常见的验证策略[23]。内容在缓存中存活规定的时间,超时即被驱逐出缓存,在缓存时被认为是最新的内容,如果有对该内容的请求到来即发生缓存命中。验证策略是一种弱一致性策略,如果内容在缓存中存在的这段时间内服务器发生内容失效事件,用户请求到的即是过期的内容。时间戳也是一个维护缓存弱一致性的验证策略,通过在数据包前加上时间戳的字段。文献[24]设计了一种分布式缓存策略,根据内容剩余生存时间、流行度和对邻居节点相同内容的感知性,使缓存自主决定存储哪些内容。文献[25]采用时间戳匹配方式满足用户对请求响应时间的要求,有效提高了信息准确率。失效策略主要分为被动策略和主动策略[6-7],其中主动策略相较于被动策略会降低用户的请求响应时间,但是会带来服务器负载的增加。
文献[6-7]针对失效策略建立Detti模型和Zheng模型。在Detti模型中,对被动查询策略和主动移除策略进行建模,将失效事件定义为独立的更新过程。在Zheng模型中,将失效事件和存在事件相关联,使用条件概率的方法对于被动查询策略和3种主动策略建模,其中主动选择更新策略能够在有效降低服务器负载的同时使缓存取得相较于其他3种策略更高的命中率,模型具有很高的精确度。在被动查询策略下,Detti模型实际计算的是不考虑一致性的情况,此时Zheng模型具有更高的精确度。在主动移除策略下,两种模型均能很好地拟合仿真结果。但是这两种模型均仅对LRU缓存替换策略进行研究,并未对更多的缓存替换策略进行研究。
为扩展缓存强一致性分析模型的适用范围,使其适用于可以使用特征时间近似的缓存替换策略,并在不同失效策略下均具有很高的计算精确度,本文基于缓存建模基本假设,对q-LRU、FIFO和RANDOM这3种缓存替换策略进行缓存强一致性模型分析。
2 缓存强一致性通用分析模型 2.1 模型假设在建立缓存强一致性通用分析模型前进行如下假设:
1)假设有
2)假设每个内容的流行度分布满足Zipf分布[26]。内容的流行度等级为
$ {P}_{\mathrm{r}}^{m}=\frac{A}{{i}^{m}} $ | (1) |
其中:
3)假设每个到达过程满足泊松分布及IRM模型,即所有内容之间的到达过程是相互独立的且流行度分布不发生变化。假设所有内容的总到达速率为
4)假设内容在缓存节点间的传输时延为0。服务器和缓存间用于通信的包的大小相较于携带数据的包要小得多,因此不考虑这部分信息对服务器负载的影响。
2.2 特征时间近似 2.2.1 缓存替换策略一般缓存大小设定为内容总数的0.5%~1.5%。当缓存存满后,如果有新的内容到达,可能会触发缓存替换事件,则需要选择一个内容驱逐以存储最新的内容。
LRU策略内部相当于一个栈,栈顶为最新的内容,当栈满后会驱逐栈底的内容。若请求内容已存在栈中,则会将该内容移动至栈顶,并且LRU具有良好的时间相关性,若同一段时间内请求相同的内容较为密集时,则LRU会体现出其优越性。q-LRU是LRU的改进策略,内容访问策略和驱逐策略与LRU相同,但在内容缓存时会以q的概率缓存。
FIFO策略会维护一个定长的队列,先进来的内容在驱逐时会被最先驱逐。RANDOM策略在发生缓存替换时,会在缓存中随机选择一个内容驱逐。RANDOM和FIFO非常相似,从替换角度看它们的处理方式对于每个内容都是平等的,适用于请求流量较为均匀的场景。
2.2.2 分析模型Che近似中用特征时间来描述内容从进入LRU到被驱逐的过程,这里的特征时间
$ {P}_{\mathrm{e}}^{m}=1-{\mathrm{e}}^{-{\lambda }^{m}{T}_{\mathrm{c}}} $ | (2) |
$ \sum \limits_{m=1}^{M}{P}_{\mathrm{e}}^{m}=C $ | (3) |
$ {P}_{\mathrm{h}}^{m}={P}_{\mathrm{e}}^{m} $ | (4) |
$ {P}_{\mathrm{h}}=\sum \limits_{m=1}^{M}{P}_{\mathrm{r}}^{m}{P}_{\mathrm{h}}^{m} $ | (5) |
$ {P}_{\mathrm{e}}^{m}=\left(1-{\mathrm{e}}^{-{\lambda }^{m}{T}_{\mathrm{c}}}\right)\left[{P}_{\mathrm{e}}^{m}+q\left(1-{P}_{\mathrm{e}}^{m}\right)\right] $ | (6) |
$ {P}_{\mathrm{h}}^{m}=\frac{q\left(1-{\mathrm{e}}^{-{\lambda }^{m}{T}_{\mathrm{c}}}\right)}{{\mathrm{e}}^{-{\lambda }^{m}{T}_{\mathrm{c}}}+q\left(1-{\mathrm{e}}^{-{\lambda }^{m}{T}_{\mathrm{c}}}\right)} $ | (7) |
$ {P}_{\mathrm{e}}^{m}=\frac{{\lambda }^{m}{T}_{\mathrm{c}}}{1+{\lambda }^{m}{T}_{\mathrm{c}}} $ | (8) |
维护缓存强一致性的策略即失效策略,包含被动查询、主动移除、主动更新和主动选择更新4种,其中主动选择更新实际是主动更新策略的一种变体,因此只考虑前3种情况,即被动查询、主动移除和主动更新。在此失效事件的到达采用通用分布,当存在失效事件时内容存在概率和命中率不同。
设
$ {P}_{\mathrm{R}}^{m}\left(t\right)=1-{\mathrm{e}}^{-{\lambda }^{m}t} $ | (9) |
由于q-LRU缓存中均以q的概率进行首次插入,因此缓存替换行为至少发生一次的概率如下:
$ {P}_{\mathrm{R}}^{m}\left(t\right)=1-\sum \limits_{n=0}^{\mathrm{\infty }}{\left(1-q\right)}^{n}{\mathrm{e}}^{-{\lambda }^{m}t}\frac{{\left({\lambda }^{m}t\right)}^{n}}{n!}=1-{\mathrm{e}}^{-q{\lambda }^{m}t} $ | (10) |
根据Zheng模型的计算公式,可推算出内容有效概率的期望值如下:
$ E\left({P}_{\mathrm{v}}^{m}\right)=\frac{1}{{\mu }_{\mathrm{s}}^{m}}\underset{0}{\overset{\mathrm{\infty }}{\int }}\underset{0}{\overset{{t}_{\mathrm{s}}^{m}}{\int }}{P}_{\mathrm{R}}^{m}\left(t\right)\mathrm{d}t\mathrm{d}F\left({t}_{\mathrm{s}}^{m}\right) $ | (11) |
其中:
由于被动查询是缓存在接收到用户对内容的请求后向服务器发出询问,因此内容在缓存中的生存时间仍按无一致性策略进行计算。将计算结果与失效时间间隔相比较,按照有效且存在或存在且有效的计算方法可以得到内容的平均命中率[7]。内容
$ \begin{array}{l}{P}_{\mathrm{h}}^{m}=\frac{1}{{\mu }_{\mathrm{s}}^{m}}\underset{0}{\overset{{T}_{\mathrm{c}}}{\int }}\underset{0}{\overset{{t}_{\mathrm{s}}^{m}}{\int }}{P}_{\mathrm{R}}^{m}\left(t\right)\mathrm{d}t\mathrm{d}F\left({t}_{\mathrm{s}}^{m}\right)+\\ \frac{1}{{\mu }_{\mathrm{s}}^{m}}\underset{{T}_{c}}{\overset{\mathrm{\infty }}{\int }}\left(\underset{0}{\overset{{T}_{\mathrm{c}}}{\int }}{P}_{\mathrm{R}}^{m}\left(t\right)\mathrm{d}t+\left({t}_{\mathrm{s}}^{m}-{\mathrm{T}}_{\mathrm{c}}\right){P}_{\mathrm{e}}^{m}\right)\mathrm{d}F\left({t}_{\mathrm{s}}^{m}\right)\end{array} $ | (12) |
在主动移除策略中,由于服务器会主动移除已经失效的内容,因此缓存并不总是满的,缓存到达最大容量和内容过期均会将内容删除,且特征时间的计算不能直接使用非一致性公式。此时缓存中存在的内容总量可以表示为缓存大小和缓存中有效内容的最小值:
$ O\approx \mathrm{m}\mathrm{i}\mathrm{n}\left(C, \sum \limits_{m=1}^{M}1\cdot {P}_{\mathrm{v}}^{m}\right) $ | (13) |
$ \sum \limits_{m=1}^{M}{P}_{\mathrm{h}}^{m}=O $ | (14) |
联立式(12)、式(13)、式(14)可以求得特征时间,继而可以求出平均缓存命中率。
2.3.3 主动更新当服务器发生更新事件,即缓存中的内容失效时,服务器会主动推送最新的内容到缓存节点,此时所有请求只要在缓存中发现内容,即是有效的,会发生缓存命中,实际的计算公式与非一致性公式相同。
上述q-LRU、FIFO和RANDOM缓存替换策略均可用特征时间来近似,对于其他策略,只要能给出特征时间近似的解法,本文缓存分析模型同样适用。
2.3.4 服务器负载对于被动查询和主动移除策略而言,服务器负载仅和未命中的缓存内容相关,计算公式如下:
$ {S}_{\mathrm{L}}=\lambda \left(1-{P}_{\mathrm{h}}\right) $ | (15) |
对于主动策略而言,除了处理未命中内容,在失效事件发生时会主动推送新的内容,服务器负载计算如下:
$ {S}_{\mathrm{L}}=\lambda \left(1-{P}_{\mathrm{h}}\right)+\sum \limits_{m=1}^{M}\frac{1}{{\mu }_{\mathrm{s}}^{m}}{P}_{\mathrm{e}}^{m} $ | (16) |
由于服务器只会对缓存中存在的内容进行主动推送,因此式(16)等式右边的后半部分可以理解为需要更新内容大小的均值。
3 实验结果与分析通过仿真实验验证缓存强一致性分析模型的准确性,同时探究选取不同缓存场景或缓存参数时缓存命中率和服务器负载的变化规律。
使用基于Python开发的实验环境进行仿真实验。实验环境设置为:操作系统为Windows10,CPU为Intel Core i7-8750H,内存为16 GB,Python版本为3.6。仿真拓扑中包括:1个用户模拟器,用于发出请求;1个缓存节点,用于放置不同的缓存替换策略,同时监测并统计缓存性能的变化;1个服务器,用于响应缓存的请求。
在实验中,设定内容总数为6 000,不失一般性,将这些内容编号,内容块的编号越大,流行度越低。内容流行度分布满足Zipf分布,Zipf参数在实验中设定为0.8。设定缓存默认大小为60,内容总的请求速率为80 req/s,失效时间间隔的期望值默认设定为20 s。对于失效事件的到达间隔,可以是常数及均匀分布、指数分布等分布描述,由于文章篇幅的限制,下文仅给出常数时间间隔和满足指数分布时间间隔的情况。
为验证模型的准确性,采用式(17)计算误差:
$ \delta =\frac{\left|{\left({P}_{\mathrm{h}}\right)}_{model}-{\left({P}_{\mathrm{h}}\right)}_{sim}\right|}{{\left({P}_{\mathrm{h}}\right)}_{\mathrm{s}\mathrm{i}\mathrm{m}}} $ | (17) |
其中:
在所有实验中利用缓存分析模型计算出对应的数值结果,用线的形式进行表示,同时用点的形式表示仿真器在对应条件下生成的结果。首先进行模型的准确性验证,分别在q-LRU、FIFO和RANDOM策略下,依次使用3种不同的缓存强一致性策略进行实验。然后在缓存参数变化时,探究q-LRU中缓存概率q的大小、Zipf参数、平均失效时间间隔和缓存大小变化对缓存性能的影响。最后在缓存参数不同时,对不同缓存替换策略进行性能比较。通过缓存分析模型计算结果和仿真结果的比较,以验证模型准确性。
3.1 不同缓存替换策略的缓存强一致性实验图 1~图 3验证了在内容
![]() |
Download:
|
图 1 单个内容的缓存命中率(q-LRU,q=0.6) Fig. 1 Cache hit ratio for a single content(q-LRU, q=0.6) |
![]() |
Download:
|
图 2 单个内容的缓存命中率(FIFO) Fig. 2 Cache hit ratio for a single content(FIFO) |
![]() |
Download:
|
图 3 单个内容的缓存命中率(RANDOM) Fig. 3 Cache hit ratio for a single content(RANDOM) |
由于指数分布的失效间隔在实际环境中更为常见,考虑篇幅限制,因此分析参数变化对缓存性能的影响时,仅考虑指数分布。图 4给出了在不同Zipf参数下,当q=0.6且
![]() |
Download:
|
图 4 Zipf参数不同时缓存命中率随q的变化 Fig. 4 Cache hit ratio variations with different q under different Zipf parameters |
不同的失效策略带来的趋势是相同的,因此此处仅研究被动查询情况下缓存性能的变化。不同的Zipf参数代表着不同的流量环境:当Zipf参数较大时(
在图 5中,改变发生失效事件的速率,即失效平均时间间隔,在q-LRU策略处于被动查询策略下最大误差为6.92%,在FIFO策略处于被动查询策略下最大误差为3.73%,在其他策略下最大误差为2.17%,计算模型仍可以很好地拟合仿真结果。随着失效平均时间间隔的增加,失效行为发生的越来越少,存储在缓存中的内容更可能是最新的内容,因此缓存命中率增加。主动更新策略使缓存一直是最新的,具有最高的命中率,且与失效事件无关。对于q-LRU而言,主动移除策略会使缓存有更多空间存储新的内容,因此缓存命中率比被动查询策略稍大一些。对于FIFO和RANDOM而言,它们驱逐内容的方式对每个内容均是平等的,因此主动更新策略和主动移除策略的性能相似。
![]() |
Download:
|
图 5 缓存命中率随平均失效时间间隔的变化 Fig. 5 Cache hit ratio variations with mean expiration time intervals |
在图 6中,随着缓存大小的增加,缓存能够存储更多的内容,缓存命中率得到提高。在图 6(a)中最大误差为4.68%,在图 6(b)中最大误差为2.06%,在图 6(c)中最大误差为1.79%,本文模型依然具有较高的计算精确度。
![]() |
Download:
|
图 6 缓存命中率随着缓存大小的变化( |
在Zipf参数、平均失效时间间隔、缓存大小等影响缓存性能的变量已知的情况下,选择合适的缓存替换策略能有效提升缓存命中率,减小服务器负载。
基于式(15)和式(16)可知,在被动查询策略和主动移除策略下,服务器负载取决于缓存的未命中率,即当服务器负载较小的时候,也是缓存命中率最高的时候,所选的策略也是最优的。在同样场景下,应用主动更新策略,虽然缓存命中率最高,但服务器负载也是最大的。在图 7中,改变Zipf参数,观察4种缓存替换策略随着Zipf参数变化服务器负载的变化情况。在图 7(a)中最大误差为2.49%,在图 7(b)中最大误差为0.88%,在图 7(c)中最大误差为0.69%。可以看出,当Zipf参数变大时,选择FIFO或RANDOM策略的服务器负载要更大,缓存命中率更低,此时选择LRU或q-LRU更优。在Zipf参数较大时,LRU与q-LRU的选择可以参考图 4及其解析。从图 7可以看出:当Zipf参数较大时q-LRU对应的服务器负载略低于LRU,此时缓存替换策略选取q-LRU最优;当Zipf参数较小时,这些策略都可以选择,从实现难度来看,FIFO和RANDOM要更为简单。从这些缓存替换策略的本身分析也可以看出,FIFO和RANDOM策略适合流行度比较均匀的内容,而LRU具有良好的时间相关性,在热门内容更多时具有更好的性能。
![]() |
Download:
|
图 7 4种缓存替换策略下服务器负载随Zipf参数的变化( |
在图 8中,通过改变平均失效时间间隔分析这4种缓存替换策略下服务器负载的变化情况。在图 8(a)中最大误差为1.01%,在图 8(b)中最大误差为0.62%,在图 8(c)中最大误差为0.39%。在3种失效策略下,主动更新的服务器负载最大。在平均失效时间间隔比较小时,对主动更新策略下服务器负载影响很大,因为失效越频繁,服务器越繁忙,其他两种策略只和缓存未命中相关,在此场景下,平均失效时间间隔和服务器负载减小,但变化趋势很小。在平均失效时间间隔大于2 s时,LRU或q-LRU的性能总是优于FIFO和RANDOM,且此时q-LRU是最优策略。在平均失效时间间隔小于2 s时,是一种快速更新的行为,在实际环境中并不常见,此时FIFO或RANDOM更为合适,因为缓存替换的行为也需要时间,如果替换的时间相较于失效时间间隔不是足够小,则用户很难请求到最新的内容。
![]() |
Download:
|
图 8 4种缓存替换策略下服务器负载随平均失效时间间隔的变化 Fig. 8 Server load variations with different mean expiration time intervals under four cache replacement strategies |
图 9给出了4种缓存替换策略下服务器负载随着缓存大小的变化情况。在图 9(a)中最大误差为0.60%,在图 9(b)中最大误差为0.69%,在图 9(c)中最大误差为0.53%。在缓存较大时,FIFO和RANDOM具有相同的性能,但服务器负载总是高于LRU或q-LRU。从服务器负载的角度来看,在缓存较大时,q-LRU策略下服务器负载最低,此时q-LRU是最优策略。在缓存较小时,很多流行的内容没有被缓存下来,因此服务器负载较大,此时4种缓存替换策略均会产生较高的服务器负载,可以选用实现更为简单的FIFO或RANDOM策略。
![]() |
Download:
|
图 9 4种缓存替换策略下服务器负载随缓存大小的变化 Fig. 9 Server load variations for different cache sizes under four cache replacement strategies |
本文构建缓存强一致性通用分析模型,并给出3种缓存强一致性策略下缓存命中率和服务器负载的计算方法。通过选取不同的缓存参数进行仿真实验,证明了通用分析模型具有较高的计算精确度,并且根据通用分析模型的计算方法,可在不同缓存参数或缓存场景下选取最优的缓存替换策略以取得最优的缓存性能。后续可将缓存强一致性通用分析模型拓展至更复杂的网络拓扑结构,进一步提高计算结果的精确度,同时在真实网络环境中部署缓存替换策略,基于通用分析模型选取合适的缓存参数,使缓存节点可在资源消耗较小时取得较优的缓存性能。
[1] |
张国强, 李杨, 林涛, 等. 信息中心网络中的内置缓存技术研究[J]. 软件学报, 2014, 25(1): 154-175. ZHANG G Q, LI Y, LIN T, et al. Survey of in-network caching techniques in information-centric networks[J]. Journal of Software, 2014, 25(1): 154-175. (in Chinese) |
[2] |
陈劼博, 郑烇, 王嵩. 基于节点介数与边缘流行度的NDN缓存策略[J]. 计算机工程, 2019, 45(5): 46-51. CHEN J B, ZHENG Q, WANG S. NDN caching strategy based on node median and edge popularity[J]. Computer Engineering, 2019, 45(5): 46-51. (in Chinese) |
[3] |
黄继海, 丁颖, 赵冰. 基于PIT相似性的VANET混合协同缓存策略[J]. 计算机工程, 2019, 45(1): 315-320. HUANG J H, DING Y, ZHAO B. VANET hybrid collaborative caching strategy based on PIT similarity[J]. Computer Engineering, 2019, 45(1): 315-320. (in Chinese) |
[4] |
DIN I U, HASSAN S, KHAN M K, et al. Caching in information-centric networking: strategies, challenges, and future research directions[J]. IEEE Communications Surveys & Tutorials, 2018, 20(2): 1443-1474. |
[5] |
HUANG S K, ZHU S, LEI K, et al. A novel strong cache consistency mechanism in ICN based on role division and lease model[C]//Proceedings of 2020 IEEE International Conference on Parallel & Distributed Processing with Applications, Big Data & Cloud Computing, Sustainable Computing & Communications, Social Computing & Networking(ISPA/BDCloud/SocialCom/SustainCom). Washington D.C., USA: IEEE Press, 2020: 1241-1248.
|
[6] |
DETTI A, BRACCIALE L, LORETI P, et al. Modeling LRU cache with invalidation[J]. Computer Networks, 2018, 134: 55-65. DOI:10.1016/j.comnet.2018.01.029 |
[7] |
ZHENG Q, YANG T, KAN Y Z, et al. On the analysis of cache invalidation with LRU replacement[J]. IEEE Transactions on Parallel and Distributed Systems, 2022, 33(3): 654-666. DOI:10.1109/TPDS.2021.3098459 |
[8] |
FRIEDLANDER E, AGGARWAL V. Generalization of LRU cache replacement policy with applications to video streaming[J]. ACM Transactions on Modeling and Performance Evaluation of Computing Systems, 2019, 4(3): 1-18. |
[9] |
EINZIGER G, FRIEDMAN R, MANES B. TinyLFU: a highly efficient cache admission policy[C]//Proceedings of the 22nd Euromicro International Conference on Parallel, Distributed, and Network-Based Processing. New York, USA: ACM Press, 2017: 1-31.
|
[10] |
GELENBE E. A unified approach to the evaluation of a class of replacement algorithms[M]. Berlin, Germany: Springer, 1974.
|
[11] |
DAN A, TOWSLEY D. An approximate analysis of the LRU and FIFO buffer replacement schemes[C]//Proceedings of 1990 ACM SIGMETRICS Conference on Measurement and Modeling of Computer Systems. New York, USA: ACM Press, 1990: 143-152.
|
[12] |
TSUKADA N, HIRADE R, MIYOSHI N. Fluid limit analysis of FIFO and RR caching for independent reference models[J]. Performance Evaluation, 2012, 69(9): 403-412. DOI:10.1016/j.peva.2012.05.008 |
[13] |
GOMAA H, MESSIER G G, WILLIAMSON C, et al. Estimating instantaneous cache hit ratio using Markov chain analysis[J]. ACM Transactions on Networking, 2013, 21(5): 1472-1483. DOI:10.1109/TNET.2012.2227338 |
[14] |
CASALE G, GAST N. Performance analysis methods for list-based caches with non-uniform access[J]. ACM Transactions on Networking, 2021, 29(2): 651-664. DOI:10.1109/TNET.2020.3042869 |
[15] |
CHE H, TUNG Y, WANG Z J. Hierarchical Web caching systems: modeling, design and experimental results[J]. IEEE Journal on Selected Areas in Communications, 2002, 20(7): 1305-1314. DOI:10.1109/JSAC.2002.801752 |
[16] |
FRICKER C, ROBERT P, ROBERTS J. A versatile and accurate approximation for LRU cache performance[EB/OL]. [2021-01-03]. https://arxiv.org/abs/1202.3974.
|
[17] |
XIE T, HE T, MCDANIEL P, et al. Attack resilience of cache replacement policies[C]//Proceedings of IEEE Conference on Computer Communications. Washington D.C., USA: IEEE Press, 2021: 1-10.
|
[18] |
JIANG B, NAIN P, TOWSLEY D. On the convergence of the TTL approximation for an LRU cache under independent stationary request processes[J]. ACM Transactions on Modeling and Performance Evaluation of Computing Systems, 2018, 3(4): 1-31. |
[19] |
AL-ABBASI A O, AGGARWAL V. TTLCache: taming latency in erasure-coded storage through TTL caching[J]. IEEE Transactions on Network and Service Management, 2020, 17(3): 1582-1596. DOI:10.1109/TNSM.2020.2998175 |
[20] |
CARRA D, NEGLIA G, MICHIARDI P. Elastic provisioning of cloud caches: a cost-aware TTL approach[J]. ACM Transactions on Networking, 2020, 28(3): 1283-1296. |
[21] |
CARRA D, NEGLIA G, MICHIARDI P. TTL-based cloud caches[C]//Proceedings of IEEE Conference on Computer Communications. Washington D.C., USA: IEEE Press, 2019: 685-693.
|
[22] |
MARTINA V, GARETTO M, LEONARDI E. A unified approach to the performance analysis of caching systems[C]//Proceedings of IEEE Conference on Computer Communications. Washington D.C., USA: IEEE Press, 2014: 2040-2048.
|
[23] |
TANG X Y, CHI H C, CHANSON S T. Optimal replica placement under TTL-based consistency[J]. IEEE Transactions on Parallel and Distributed Systems, 2007, 18(3): 351-363. |
[24] |
AMADEO M, RUGGERI G, CAMPOLO C, et al. Diversity-improved caching of popular transient contents in vehicular named data networking[J]. Computer Networks, 2021, 184: 107625. |
[25] |
赵国锋, 林欢, 段洁, 等. 面向数据新鲜度的ICN-IoT缓存方案[J]. 计算机工程, 2020, 46(11): 223-230. ZHAO G F, LIN H, DUAN J, et al. ICN-IoT caching scheme for data freshness[J]. Computer Engineering, 2020, 46(11): 223-230. (in Chinese) |
[26] |
BRESLAU L, CAO P, FAN L, et al. Web caching and Zipf-like distributions: evidence and implications[C]//Proceedings of IEEE Conference on Computer Communications. Washington D.C., USA: IEEE Press, 1999: 126-134.
|