diff --git a/categories/stor/index.html b/categories/stor/index.html index c80d78a6..ff7d6bee 100644 --- a/categories/stor/index.html +++ b/categories/stor/index.html @@ -97,7 +97,7 @@
原创 晓兵XB 云原生云 2023-04-29 20:37 发表于四川
- +https://mp.weixin.qq.com/s/FCQMaDmumCHw8WElBsD18Q
在本文中,我们首先回顾了 Ceph* 4K I/O 工作负载中遇到的性能挑战,并对单个 Ceph OSD 对象存储守护进程 (OSD) 进程的 CPU 分布进行了简要分析。然后,我们讨论了现有 TCP/IP 堆栈中的低效问题,并介绍了英特尔® 以太网连接 X722 支持的 iWARP RDMA 协议,随后描述了 iWARP RDMA 集成到 Ceph 中的设计和实现。最后,我们提供了使用 iWARP RDMA 对 Ceph 的性能评估,与 TCP/IP 堆栈相比,它展示了高达 17% 的性能提升6。
红帽 Ceph* 是当今最流行的分布式存储系统之一,可在单一平台1中提供可扩展且可靠的对象、块和文件存储服务。它在云和大数据环境中得到广泛采用,在过去几年中,Ceph RADOS 块设备 (RDB) 已成为占主导地位的 OpenStack* Cinder 驱动程序。同时,随着Intel ® 3D XPoint ™ memory 2和远程直接内存访问(RDMA)网卡(NIC)等新硬件技术的出现,企业应用开发者对高性能、超低延迟的存储解决方案产生了新的期待用于云上的在线事务处理 (OLTP) 工作负载。
diff --git a/post/storage/spdk_pm/index.html b/post/storage/spdk_pm/index.html index 3adb6802..91266b2c 100644 --- a/post/storage/spdk_pm/index.html +++ b/post/storage/spdk_pm/index.html @@ -243,7 +243,7 @@原创 晓兵XB 云原生云 2023-04-30 10:21 发表于四川
- +https://mp.weixin.qq.com/s/trDKiEoYBjD8-1zhmEMYnA
diff --git a/tags/ceph/index.html b/tags/ceph/index.html index a42edba2..ab310215 100644 --- a/tags/ceph/index.html +++ b/tags/ceph/index.html @@ -97,7 +97,7 @@