esxi 查看数据存储怎么访问scaleio存储

为什么ScaleIO和VSAN不要求三副本?
为什么ScaleIO和VSAN不要求三副本?
本文内容非商业用途可无需授权转载,请务必注明作者、微博ID:唐僧_huangliang,以便更好地与读者互动。有朋友建议我多写点软件定义存储方面的东西,毕竟这是现在流行的趋势。之前我除了在VMware VSAN、Ceph方向写过几篇之外,研究其它分布式存储技术确实少一些,可能是由于搞硬件出身的缘故吧:)双副本和三副本差在哪里?这个问题估计很多朋友都知道答案,比如在下图流行的Ceph等分布式块存储、文件系统和对象存储/云盘中,三副本数据保护机制应该是应用最广的。这个我在两年前的《IDF15:Ceph性能测试浅析及优化》中曾经列出过。Ceph的RADOS对象架构的写操作是先写到某个节点上的OSD主副本,然后再由该节点通过网络向另外两个节点的从副本写入。在这种情况下,如果是用10GbE万兆网络,每节点配置2条专用的集群网络连接比较好,同时也兼顾冗余。如果这2个网口与业务网络混用,不太适合对性能要求较高的场合。去年我还写过一篇《IDF16:解读Ceph百万IOPS测试及优化》,和许多公开的Ceph性能测试一样也是双副本配置。这样数字上确实好看,但对于Ceph生产环境来说三副本或者纠删码几乎是必须的。相比之下,同为分布式存储的VMware VSAN却并不特别强调3副本,尽管它能支持1-4个副本。这里面涉及到一点技术设计上的不同——数据打散or不打散。VSAN“不打散”所以双副本可用如上图,VSAN的多副本也被称为(网络)RAID-1,如果用户想进一步通过条带化(stripe)提高性能,可以将硬盘(或数据层SSD)“先做RAID 0再做RAID 1”已达到类似RAID 10的效果。组成一对条带的成员盘可以位于相同或者不同的服务器节点,而我看到VMware对RAID 0(stirpe)不是太推荐,HDD混合存储VSAN的性能更多凭借SSD缓存。以上图为例,一个vmdk磁盘卷文件分布于stripe-1a、1b、2a和2b所在的4块硬盘上,如果stripe-1a的硬盘故障,在修复完成之前只要保证stripe-2a正常访问即可。一个关键的要点是,单个vmdk没有打散到整个集群的机制,这点与Ceph、ScaleIO等多数SDS不同。而Ceph等就不同了,根据CRASH对象分布(打散)机制,如果在双副本集群中坏一块盘,它上面数据对象的副本有可能分布在集群其它节点上的每一块盘,这时就容不得再出问题。为了保证较高的可靠性和可用性,需要三副本和容错能力不低于N+2的纠删码保护。ServerSAN先行者XIV的规模限制上面列出了IBM XIV的架构图,以今天的角度来看,它就是一套分布式ServerSAN。硬件上是6-15个节点,每节点12块大容量7200转近线硬盘,豪华一些的是节点间互连的InfiniBand交换机,以及UPS支撑的服务器内存来做缓存(每节点还支持1个SSD读缓存)。XIV的存储空间按照1MB的粒度打散,并通过伪随机算法实现分布式镜像(双副本),它也需要面对和Ceph类似的问题。除了想办法提高Rebuild速度之外,我们看到XIV单集群的节点规模一直没有超过15个,保护域内的硬盘数量为180个。很早我就听Vincent Hsu讲过XIV测试过4个机架,但最终他们还是没有引入3副本,按传统企业存储的思路来看三重镜像无论容量还是性能上的代价都太大。如果换用速度更快的硬盘或者SSD,又面临容量下降或者成本上升的问题。ScaleIO曾经设计支持3副本?在上图的ScaleIO集群中,标记“S”的节点代表提供存储服务的Server端,“C”代表Client客户端,同时部署Server和Client即现在时髦的超融合部署。ScaleIO也是的一大特点是性能高,可以说是分布式存储/ServerSAN中的标杆。下文中我还会列出相关的参考资料。这个截图中的文字从2013年的一篇blog引用,这至少说明ScaleIO在早期设计中支持/考虑过3副本。但后来估计是跟XIV类似的考虑,为了不在性能上妥协所以只支持2副本。当然,ScaleIO的软件栈为闪存充分优化过,全SSD配置的效果很好。保护域和故障集:配合保障2副本可靠性上图描述了ScaleIO集群中的几个概念:1、保护域(Protection Domain):可以理解为设定一个像XIV那样180块盘/15节点的子集群规模限制;2、存储池(Storage Pool):为保护域中的一个子集。指派每个节点上一部分磁盘/SSD加入,实现容量、性能上的隔离,并支持固定分层。3、故障集(Fault Set):主要用于机架隔离,预防单个机柜中的节点集体断电/断网。位于一个故障集中每份数据的副本都需要存放于别的故障集中(如下图)。从这里可以看出,故障集1中的2个节点如果同时离线,ScaleIO集群仍能保持在线访问。引用自《EMC SCALEIO DESIGN CONSIDERATIONS AND BEST PRACTICES》在ScaleIO的最佳实践文档中,推荐了一种小型-中等规模的16节点系统。设计了单个保护域,服务器节点数量与XIV接近;每节点24盘位总共达到了384个硬盘(7200转1TB),但划分为A、B、C三个存储池,每个池不超过144个硬盘。当一个驱动器出现故障时,会在96/144块盘的存储池内快速Rebuild数据,以这套配置的单盘容量压力比XIV要低。整节点故障的概率比硬盘/SSD要低,这时需要重构的数据量增加,面对的情况与XIV单节点故障相仿。简单说就是对双副本可能带来的风险,已进行过充分的考虑和预防。如果是更大规模的系统(ScaleIO最大支持1024节点),就需要划分多个保护域了。下面我们来看看ScaleIO的产品限制详情:在2016年6月的这份白皮书中,ScaleIO最大支持6TB硬盘,每个SDS节点物理容量不超过64TB,设备(HDD/SSD)数量最多64个,这些可以限制Rebuild时的最大数据量。ScaleIO单个保护域中的节点数量限制为128,我理解这在实际部署中可以结合其它因素一起考虑。每个存储池的最大驱动器设备数为300,数字上虽然超出XIV不少,但如果使用SSD或者小容量硬盘Rebuild的时间窗口压力也会缩短,所以并不代表风险会增加。我们要活学活用。性能效率如何?注:3-6节点为实测数值,6-128节点是推测的。后续我还会写点实测数据的分析。选择放弃3副本支持,ScaleIO也收获到了极致的性能。NULL Device这个词我想许多朋友不陌生了,就是一个位于内存中的“空设备”,读取它不需要访问具体的硬盘/SSD就可以返回。从上面两条接近的虚线来看,读取PCIe Flash ScaleIO集群的性能,只比NULL Device降低了9%。128节点可达接近3千万IOPS,平均每节点贡献20万IOPS的线性扩展。这里我打个小广告,Dell和EMC联合推出了ScaleIO Ready Node,也就是优化设计的存储服务器硬件。选择它可以获得较为合理的配置,并不用担心购买存储软件DIY的兼容性问题,这与VSAN Ready Node的情况相似。集中式存储的“三副本”支持既然有的分布式存储可以用双副本(RAID 1镜像),那为什么集中式存储阵列还要支持三重镜像呢?上表引用自《Understanding RAID with Dell SC Series Storage》,RAID 10-DM(Dual Mirror,即三重镜像)随机写性能强于RAID 6,并且提供可靠的双冗余和最好的Rebuild性能。这些都与分布式存储中的三副本相符,而双控阵列没有网络开销。Dell SC(Compellent)采用了原生宽条带化RAID,或称RAID 2.0类技术的代表产品之一。HDD/SSD空间均打散为512KB-4MB页面(数据块),并在它们之间组建RAID。Dell SC RAID技术的一个特色是,支持的种类比较丰富。其中RAID 10和RAID 5只在单盘容量、驱动器数量不超过一定范围内允许选择,这是为了避免在打散的存储池中出现双盘故障。相比之下,NetApp E系列/PowerVault MD3、富士通等阵列后来加入支持的宽条带化RAID,只有类RAID 6一种保护级别。上图引用自NetApp的资料,DDP就相当于Dell SC的RAID 6,其实测随机写性能接近RAID 6,这就是RAID 10-DM存在的意义。反过来说,RAID 10-DM的不足之处主要就是容量利用率。对此Dell SC的另一个特色实现了优势互补——在同一种类型驱动器的存储池中支持跨RAID级别分层。如上图,新写入阵列的数据可以按照RAID 10或者10-DM以获得较好的性能,而后按需或者周期性转换为RAID 5/6保护形态,可显著提高容量利用率。被Replay快照“冻结”的奇偶校验RAID子分层在这里只响应读请求,因此不会影响写性能。本文主要是围绕ScaleIO来写,最后讲了点题外话,也是有感于分布式存储实现自动分层机制比集中式阵列明显要困难。说到底还是跨节点网络开销和分布式元数据管理的麻烦,因此我们看到VSAN的SSD缓存是每个节点“各自为战”的。延伸阅读 《存储极客:为什么说VSAN与Dell SC渐行渐近?》注:本文只代表作者个人观点,与任何组织机构无关,如有错误和不足之处欢迎在留言中批评指正。进一步交流技术,可以加我的QQ/微信:。如果您想在这个公众号上分享自己的技术干货,也欢迎联系我:)尊重知识,转载时请保留全文。感谢您的阅读和支持!《企业存储技术》微信公众号:huangliang_storage原文链接:https://mp./s?__biz=MzAwODExNjI3NA==&mid=&idx=1&sn=68f37fdb9d1627&chksm=b642e24ababbfe1a199fbfe3#rd
本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。
百家号 最近更新:
简介: 分享最新和最有趣和有趣的技术产品和信息
作者最新文章ScaleIO、VSAN、MFS、Ceph这几种存储方案的区别是什么? 我的世界工业mod为什么MFS连接机器会爆炸啊,有什么...
你正在浏览: & >
ScaleIO、VSAN、MFS、Ceph这几种存储方案的区别是什么?
ScaleIO、VSAN、MFS、Ceph这几种存储方案的区别是什么?
借助 Virtual SAN,许多手动存储任务都可以实现自动化。
借助 Virtual SAN,许多手动存储任务都可以实现自动化。
你可能感兴趣的内容?› ›VSAN也有玩不转的时候:EMC ScaleIO的市场定位
VSAN也有玩不转的时候:EMC ScaleIO的市场定位
扫一扫分享文章到微信
扫一扫关注官方公众号至顶头条
一者面向小型客户,另一者则针对企业级供应商。
来源:ZDNet存储频道(编译)
EMC公司于几周之前刚刚公布了其向外扩展ScaleIO Node虚拟SAN产品,其同时配备闪存-磁盘混合与全闪存服务器机柜。这套方案属于EMC旗下子公司VMware VSAN系列的成员之一,因此可以算是EMC版本的EVO:RAIL实现方案,且竞争对手为向外扩展型全闪存阵列。
在与消息人士的探讨当中,我们交流了EMC关于这类技术方案的定位,并发现VSAN与ScaleIO间的交集远比我们印象中要小。
ScaleIO与VSAN
下列图表所示为我们对于EMC开发思路演变过程的理解,其中两条轴线分别代表着在市场上出现的频率(由低到高)以及客户复杂度水平(由低到高)。
两条曲线则代表着VSAN与ScaleIO的相对定位。远程与分支办公环境(简称ROBO)、超融合型基础设施设备(简称HCIA)、中小型企业(简称SMB)以及小型组织机构更适合使用VSAN。普通企业选择二者皆宜,而ScaleIO能够应对更多VSAN无法承载的复杂场景,或者满足其它非vSphere虚拟机管理程序需求。&我们勾勒出的ScaleIO与VSAN在市场甜蜜点方面的定位差异。
ScaleIO最具规模的用例包括企业级数据中心以及服务供应商场景。
ScaleIO在中小型企业当中基本玩不转,除非客户方面拥有10个乃至更多节点。VSAN在规模庞大的服务供应商群体中则不受待见,因为它不具备理想的扩展能力,其设计思路也仅仅考虑到了较为简单的用例状况。
VSAN与ScaleIO拥有不同的架构设计中心,其中VSAN主要面向事务型场景且只擅长处理一类对象,也就是虚拟机。换言之,本地性对于VSAN非常重要,这意味着虚拟机及其数据必须存在于同一主机当中,并以镜像方式保留两套副本,如此一来客户就能以并行方式完成读取。
ScaleIO能够处理分卷与LUN,其将数据划分成1 MB大小的片段,并将其分流到两个节点当中;而接下来的片段则被分流至另外两个节点处。其写入吞吐能力为所有主机的总和,而读取带宽则为ScaleIO集群当中所有节点带宽之总和。
ScaleIO与SolidFire
那么ScaleIO与SolidFire相比较又有哪些异同?对于SolidFire公司CEO Dave Wright,EMC内部存在着多种看法。有些人将他视为一位杰出的工程技术型CEO,且一手构建起堪称伟大的领导文化。SolidFire公司拥有一套闪存优化型及服务供应商优化型存储堆栈;ScaleIO在针对性方面无法与之比肩,但这也表示其能够同时被用于处理容量密集型与以性能为主要考量的工作负载。ScaleIO在其代码堆栈层面中并不具备特别明显的写入规避倾向。它通常能够以混合或者纯磁盘配置方式被部署在服务供应商类用例当中。
ScaleIO与SolidFire在规模伸缩方面的甜蜜点也有所不同。ScaleIO能够轻松扩展至数千个节点,根据有关消息,其甚至没有硬性的规模上限。而SolidFire则不具备同样的扩展能力。不过在另一方面,SolidFire拥有强大的服务质量(简称QoS)以及面向服务供应商的API模型,而ScaleIO则具备更为灵活的使用方式甚至更强大的性能表现。
在我们看来,EMC旗下归属于EMC II(即EMC信息基础设施公司)的新兴技术事业部相当于由多家初创企业所组成,具体包括XtremIO、DSSD以及ScaleIO等等。这些初创业务类别之间存在着一定交集,甚至与VMware公司的VSAN项目以及VCE的VSPEX Blue也在某种程度上属于竞争关系。这是否非常混乱而且会导致资源浪费?
一家企业内部的不同产品之间存在交集当然不是什么新鲜事物。NetApp公司自己的全闪存FAS与全闪存EF系列阵列就在市场上斗得不可开交。不过只要设计中心与市场营销甜蜜点有所区别,问题就不至于太过严重。
我们能够轻松列举大量存在内部交集的产品,举例来说,IBM、戴尔乃至几乎任何一家主流供应商都面临着这类问题。毫无业务交集的初创企业可以说是凤毛麟角,它们也确实相当幸运。而目前身处公众视野当中的存储初创企业们显然没办法确保自身方案能够与其它同类技术毫无关联。
然而对于成熟的企业来讲,或者说对于那些正在不断推出大量存储产品的主流供应商来讲,存在交集并不值得太过担心。在EMC看来,存储与服务器市场的前进趋势与未来需求正在不断变化,这意味着将有更多极具主动性的发展中产品注入这部分年轻的利基市场。
除非生态定位已经完成确立而且相关需求在业界内得到共识,否则不同利基厂商之间总会出现大量产品交集。这是一种临时性状况,并将使得EMC以及思科等其它拥有开发能力的厂商始终储备着待售产品,并在利基关系彻底成熟后将其间涌现的相关初创企业吸纳入自身。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
热点文章热评文章厂商动态
北京第二十六维信息技术有限公司(至顶网)版权所有. 京ICP备号-7 京ICP证161336号
京公网安备 00号帖子6089&精华0&积分10878&金币15504 &注册时间&最后登录&
对比ScaleIO和VMware的VSAN技术(下)
  在上一篇文章中,我们介绍了ScaleIO Virtual SAN的实现组件、设计架构、具体应用和配置案例。本文将继续介绍VMware Virtual SAN的实现原理、实施要求和配置步骤,然后对比ScaleIO VSAN和VMware VSAN的具体参数。
  对比ScaleIO和VMware的VSAN技术(上)对比ScaleIO和VMware的VSAN技术(下)更多信息
  VMware的虚拟SAN
  VMware在vSphere 5.5中引入了Virtual SAN技术,迈出了实现存储虚拟化的第一步。VMware VSAN将 vSphere 集群中的主机本地连接的磁盘聚合起来,然后创建一个分布式共享存储,它可实现在 VMware vCenter中快速调配存储,作为虚拟机创建和部署操作的一部分。
  VMware VSAN是一种混合磁盘系统,它利用聚合本地固态驱动器 (SSD) 作为缓存,同时结合使用本地硬盘驱动器 (HDD)来提供可供虚拟机使用的集群式数据存储。这样既能实现企业级性能又能提供具有强大恢复能力的存储平台。在 VMware VSAN 环境中,需要配置若干 ESXi 主机以形成一个 VMware VSAN 集 群。所有 ESXi 主机均通过VMware Virtual SAN专用网络进行通信。大部分主机均需要配备本地硬盘驱动器,其中大部分配有本地固态驱动器。未配备本地磁盘驱动器的主机可以共享计算资源并利用集群式存储资源。本地固态驱动器可以优化所有主机的存储使用效率。通过组合每台主机上的本地硬盘驱动器和固态驱动器,最多可形成 5 个本地磁盘组。每个磁盘组只能使用一个 SSD,但最多可以使用5个硬盘驱动器。
  VMware VSAN 实施要求:
  —— 一个群集配置至少三台主机
  —— 所有三台主机都必须提供存储
  vSphere 5.5 U1 或更高版本
  —— 本地连接的磁盘
  磁盘 (HDD)
  基于闪存的设备 (SSD)
  —— 网络连接
  1GB 以太网
  10GB 以太网(首选)
  创建磁盘组需要指定一个基于闪存的设备(SAS、SATA、或 PCIe 固态硬盘)以及一个或多个磁盘(SAS 或 SATA 硬盘)。磁盘组构成了Virtual SAN 数据存储的分布式闪存层,并为其提供存储容量。Virtual SAN 分布式闪存层通过在所有磁盘前端提供读缓存和写缓冲,优化了虚拟机和应用的性能。存储容量分为两部分:70% 用于读缓存,30% 用于写缓冲。所有磁盘组先通过改进的磁盘上文件系统VMware vSphere VMFS-L 进行格式化,然后作为单个数据存储装载到对象存储文件系统数据存储中。每个磁盘的VMFS-L 格式化共占用750 MB 的容量。项目最小最大磁盘组磁盘组每个主机上一个每个主机上五个闪存设备:SAS、SATA、PCIe 固态硬盘每个磁盘组一个每个磁盘组一个磁盘设备每个磁盘组一个硬盘每个磁盘组七个硬盘磁盘格式化开销每个硬盘
750 MB每个硬盘
750 MB磁盘组、设备和开销表
  通过组合VMware Virtual SAN集群中所有ESXi主机的磁盘组,可创建一个VMware Virtual SAN数据存储。每个VMware Virtual SAN集群只有一个数据存储,因此它包含了该集群中的所有HDD 和 SSD 资源。通过对象存储文件系统(OSFS),所有主机上的VMFS卷可以合并为一个数据存储进行安装。此数据存储包含所有虚拟机文件 (包括 vmdk 文件)。每个Vmdk文件可创建不同的虚拟机存储策略, 用于定义数据存储中数据在磁盘上的存储方式。通过配置这些虚拟机存储策略可充分利用VMware Virtual SAN 的功能。
  VMware Virtual SAN 数据存储可在以下方面帮助管理员使用软件定义的存储:
  存储策略按虚拟机的体系结构配置:每个数据存储可配置多个策略使得每个虚拟机可以拥有不同的存储。
  vSphere 和 vCenter 集成:VMware Virtual SAN 功能是内置的,无需任何虚拟设备。如同vSphere HA 或 DRS 一样,您可以创建一个 VMware Virtual SAN 集群。
  横向扩展存储:一个集群最多可以包含8台ESXi主机。通过在集群中添加新节点或将VMware Virtual SAN设置为扫描并自动添加空磁盘,可以实现扩展。
  内置恢复能力:具有一条默认策略,系统会镜像所有未针对VMware Virtual SAN配置的虚拟机对象。
  SSD 缓存:在写入 HDD 前,会将所有 I/O 转入 SSD 并进行缓存。
  聚合式计算和存储:甚至那些没有本地存储的虚拟机也可以利用VMware Virtual SAN存储资源。
  VMware VSAN 的配置步骤:
  首先,配置用于 VMware VSAN 的 VMkernel 网络,并允许所有主机访问该网络。
  然后,创建一个集群并针对 VMware VSAN 启用该集群。将所有主机添加到这一VMware VSAN 集群中。
  可以采用“手动”或“自动”模式配置VMware VSAN 集群。 如果在“自动”模式下配置VMware VSAN,则VMware VSAN会要 求使用所有本地磁盘来创建分布式Virtual SAN 数据存储。如果在“手动”模式下配置VMware VSAN,则必须通过创建 “磁盘组” 手动选择要添加分布式Virtual SAN 数据存储的磁盘。默认的模式为自动模式。VMware VSAN会扫描所有主机中的空磁盘。当它找到这些空 磁盘时,会对其进行配置以用于VMware VSAN。
  在集群中启用 VMware VSAN 时,会创建单一的Virtual SAN 数据存储。此数据存储可 以使用集群中所有主机的存储组件。使用对象存储文件系统(OSFS)可以安装存储。VMware VSAN 在VSAN 数据存储中以灵活的数据容器的形式存储和管理数据。对象是一个逻辑卷,该逻辑卷有自己的分布式数据和元数据,并且可以跨整个集群进行访问。在ESXi 存储堆栈中, 这些对象以设备的形式出现。尽管只为整个VMware VSAN 集群创建了一个Virtual SAN 数据存储,但该数据存储可 以有多个与之关联的存储策略。这些存储策略可配置不同的存储功能。
  ScaleIO和VMware的VSAN参数对比
  ScaleIO的ECS和VMware VSAN基本上做同样的事情,通过一组主机的存储来建立虚拟SAN,然后在集群内共享。ScaleIO是一个管理程序,支持不同操作系统的物理服务器,可以扩展到数百台机器。VMware VSAN只能应用于ESXi主机,被集成到vSphere内核中,只能最多扩展到32个节点。另外,二项技术以不同的方式来使用混合存储,结构完全不同。下表对比了ScaleIO的ECS和VMware VSAN的参数:
VMwareScaleIO 1.2版本节点3台 —— 32台
3台 —— 大于100台网络类型VMware VSAN专用网络IP网络存储介质本地磁盘本地磁盘是否支持VIPR
支持支持对象类型vSphere 5.5 U1或更高版本
Linux CentOS&&6.0及以上版本、Linux& &Red Hat 6.0及以上版本、VMware& &ESX 5.0或5.1和Xen Server 6.1版本应用于
  了解ScaleIO和VMware的虚拟SAN技术。
相关帖子:
[通过 QQ、MSN 分享给朋友]
管理员推荐
观看戴尔微视频并截图,在活动贴中回复你的邮箱+点评就有机会赢大奖!还等什么,快来参加吧!EMC Community Network - DECN: 如何在VMware ESXi 5中添加iSCSI存储
Find Communities by: Category | Product
如何在VMware ESXi 5中添加iSCSI存储&转载请在文首保留原文出处: 介绍&&&&&& iSCSI是构建SAN网络的主流协议之一。iSCSI允许用户使用旧有的、管理员已经非常熟悉的以太网资源来构建IP存储网络。本文将介绍如何将VNX的LUN以iSCSI的方式添加到VMware ESXi 5.x主机中。更多信息&配置VNX的iSCSI端口:&&&&&& 首先进入System & Hardware & Storage Hardware & SP A (SP B) & IO Modules & Slot & Port # & Properties,完成对阵列端iSCSI端口的配置。&&&& &&&&& 需要注意的是iSCSI IP地址最好与SP管理IP地址在不同的网段。更多对于VNX、CLARiiON iSCSI端口配置注意事项请参考:&配置ESXi iSCSI HBA或Software Initiator:&&&&&& 我们以Software iSCSI Adapter为例。1.添加用于iSCSI存储的VMkernel 端口登录vSphere Client & ESX Host & Configuration & Networking & vSwitch & Properties & Add & VMkernel&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&& 2.添加iSCSI Storage Adapter (Software Initiator)&&&&&&&&&&&&&&&&&&& 3.Properties & Dynamic Discovery & Add,输入VNX iSCSI端口IP地址(或对应的DNS域名)&&&&&&&&&&&&&&&&&&& 4.Rescan后发现存储信息&&&&&&&&&&&&&&&&&&& &VNX上创建LUN和Storage Group:&&&&&& VNX上创建RAID Group、LUN和Storage Group的过程这里就不细讲了。大致内容可以参考之前的文档:&&&& &ESXi上Rescan All后添加存储LUN并创建VMFS文件分区:&1.进入vSphere Client & ESX Host & Configuration & Storage,点击Rescan All&&&&&&&&&&&&&&&&&&& 2.点击Add Storage&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&& 3.选择VMFS版本、Datastore名称、可用空间(Capacity)后完成配置&&&&&&&&&&&&&&&&&&& 参考&EMC技术白皮书《iSCSI SAN Topologies》EMC VNX My Documents,ESX Server 5i主机添加文档应用于&ESXi 5、VNX、CLARiiON
电子邮件地址
Email Address
(必填项,将不会发布)
您确定要删除此文档?
存储产品系列
融合基础架构类别
融合基础架构产品系列
数据保护类别
数据保护产品系列 检测、调查和应对高级威胁。确认和管理身份。最终防止 IP 盗窃、诈骗和网络犯罪。了解 RSA 产品和解决方案。内容管理产品系列 获得技术、解决方案及功能,真正满足您和您的业务的所有需求。让我们来谈谈您的 IT 转型。我们可以提供帮助。存储类别
融合基础架构类别 数据保护类别
云解决方案类别
内容管理类别
安全类别通过云、大数据、技术咨询和服务加快您的业务和 IT 转型。让我们来谈谈您的 IT 服务需求。获得有关 IT 转型话题的见解和专业知识 — 访问 InFocus。推动您的业务取得更大成功。查找 EMC 合作伙伴,或了解如何成为 EMC 合作伙伴。立即与 EMC 合作。及时了解 EMC 的新闻、职位信息及 IT 转型方面的创新。中国北京朝阳区霄云路 38 号现代汽车大厦 15 层邮编:100027中国

我要回帖

更多关于 esxi主机没有永久存储 的文章

 

随机推荐