We present a fully lock-free variant of the recent Montage system for persistent data structures. Our variant, nbMontage, adds persistence to almost any nonblocking concurrent structure without introducing significant overhead or blocking of any kind. Like its predecessor, nbMontage is buffered durably linearizable: it guarantees that the state recovered in the wake of a crash will represent a consistent prefix of pre-crash execution. Unlike its predecessor, nbMontage ensures wait-free progress of the persistence frontier, thereby bounding the number of recent updates that may be lost on a crash, and allowing a thread to force an update of the frontier (i.e., to perform a sync operation) without the risk of blocking. As an extra benefit, the helping mechanism employed by our wait-free sync significantly reduces its latency. Performance results for nonblocking queues, skip lists, trees, and hash tables rival custom data structures in the literature -- dramatically faster than achieved with prior general-purpose systems, and generally within 50% of equivalent non-persistent structures placed in DRAM.


翻译:我们展示了最近蒙太基系统的一种完全无锁的变体,用于持续的数据结构。我们的变体, nbMontage, 增加了几乎任何非阻塞性并存结构的持久性,而没有引入重大间接费用或任何类型的屏障。像其前身一样, nbMontage 具有缓冲性, 具有可调和的线性: 它保证在坠机后恢复的国家将代表崩溃前处决的一贯前奏。 nbMontage 与其前身不同, nbMontage 确保持久性边界的无等待性进展, 从而限制在坠机时可能丢失的最近更新次数, 并允许一条线来强制更新边界( 即, 进行同步操作), 而不造成阻塞的风险。 作为额外的好处, 我们的无阻塞性同步所使用的帮助机制会大大降低其耐久性。 无阻塞式列队列、 跳板、 树 和 挂图表的成绩在文献中与定制数据结构相对的成绩 -- 大大快于先前通用系统所达到的进度,, 以及一般而言, 位于DRAM内50%的同等的无渗透结构内的非渗透结构内。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年6月12日
最新《Transformers模型》教程,64页ppt
专知会员服务
276+阅读 · 2020年11月26日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
一文读懂Faster RCNN
极市平台
5+阅读 · 2020年1月6日
LibRec 精选:从0开始构建RNN网络
LibRec智能推荐
5+阅读 · 2019年5月31日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
笔记 | Sentiment Analysis
黑龙江大学自然语言处理实验室
10+阅读 · 2018年5月6日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
Nature 一周论文导读 | 2018 年 3 月 29 日
科研圈
12+阅读 · 2018年4月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年7月7日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
4+阅读 · 2020年5月25日
VIP会员
相关资讯
一文读懂Faster RCNN
极市平台
5+阅读 · 2020年1月6日
LibRec 精选:从0开始构建RNN网络
LibRec智能推荐
5+阅读 · 2019年5月31日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
笔记 | Sentiment Analysis
黑龙江大学自然语言处理实验室
10+阅读 · 2018年5月6日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
Nature 一周论文导读 | 2018 年 3 月 29 日
科研圈
12+阅读 · 2018年4月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员