婆罗门
精华
|
战斗力 鹅
|
回帖 0
注册时间 2006-1-25
|
最近可能有机会接触相关的一些项目,领导让我去对接orz
我之前一直搞嵌入式,存储没特别搞过,自己也搜了搜,有些东西说法不一,想向有专业知识的朋友求助一下。
如果有相关领域的朋友还望能给我一些基本的入门或者科普知识,感激不尽!
1.fc-san 是个什么样的东西?
我是不是可以理解为一种专门的HBA卡,加上光纤链接到专门的光纤接口存储盘上
和SATA的存储系统比起来,HBA卡相当于SATA控制器,光纤相当于SATA线,最后直接接到光纤的盘就是SATA盘
那际用的客户端是否还是通过其他网络接口访问服务器,而不是客户端直接访问最后的光纤接口盘吧?然后服务器对外还是提供 文件服务/卷服务?
为啥有上面这个问题主要是最近还听了一耳朵有个叫RDMA的东西好像可以直接绕开服务器端还是咋样,也没太听懂,就听了一耳朵
2.通过 iscsi 对外提供的服务器相当于提供了个卷或者说块设备那么服务器通过啥提供的是不是什么都行?
比如哪怕服务器本身有一套 fc-san的存储 (就是我还不清楚我第一个问题是不是理解的对)
另外 iscsi 服务对外提供的是个盘或者卷,所以 各种 raid 在这层之下组成卷 对外提供出去服务也是没有问题的吧?
3.有关性能对比,可能我需要自己搭一套基于开源linux的简单存储服务器做个对比,是不是用 centos比较方便?
如果fc-san 我的理解正确只要买到支持的卡就应该能用?我就理解为另外一种块设备就完了(其实还是问题1,2)
samba/nfs/cifs 之类的应该配一下就行之前都用过,iscsi服务的机器有没有好的文章可以推荐给我参考学习一下?以前没有用过,只要能初步跑起来就行,比如虚拟机里?
4.如果我这个做对比的系统就用桌面级的CPU行不?一般来说瓶颈在什么位置?是网络速度呢还是硬盘速度?
有没有什么测评类的文章或者横向对比文章可以参考?
比如我的目标在性能假设希望对外能提供堆满2个10G 网的速度,或者1个10G 网速度,或者几个千兆网的速度,假设某一个指标吧
那么我怎么判断是CPU网络性能是瓶颈,还是存储盘的IO性能是瓶颈呢?感觉应该不太会CPU运算性能不够吧?
因为以太网和各种盘都要占CPU和IO资源,我该咋判断哪部分已经是瓶颈或者上限?
比如X79的E5之类,或者1230这类E3,或者4~7代的 i7 ,有没有什么好的评估方法?
比如弄一个最多16盘或者24盘的raid系统,我只买其中的 1/4 做 raid0 测试最快性能之后,好像也不敢直接*4就是性能啊
总之就是有没有什么可以省钱的办法?如果实在没有只能买满盘测了
另外提供整体差不多相同速度的硬盘组raid是 SAS盘+raid卡便宜点还是SATA+raid卡便宜点?
5.如果是多服务器之间说的容灾啊,各种级别的备份啊,通常有啥开源解决方案?继续求好的科普或者介绍文章?
我之前简单看过一些比如有个 glusterfs ,还有没有别的?或者专业做存储的都用啥?
比如对于盘 raid有 0 1 5 6 10
那么把每个服务器看成一个盘做各种层次的镜像也好,校验也好,是不是也有各种各样的方案?
6.所谓优化存储方案一般都是在啥地方优化?比如用更快的文件系统?或者调内核参数让对外的服务更快?
之前遇到过有的地方说要把全部物理内存都在内核态下完全管理起来,之前那种32位的系统通过PAE支持大于4G内存,就不满足他们的要求,这是想干啥?没太搞懂。
7.这种服务器提供的服务用什么软件测试比较好?
有的地方直接说 客户端mount到本地直接 dd 就行了,那感觉也就是改改参数就能测出连续读写?那随机读写呢?还有比如多少IOPS之类的用什么测试?
能直接用windows 下的硬盘测试工具比如 CrystalDiskMark 或者 Hdtune 测么?
linux的话用啥工具更好?
能想到的就这么多问题,主要是事出比较突然,自己慢慢查有点时间不够,还望高人指点
如果有在帝都的朋友愿意面授更好,冬天天冷可以搞个羊蝎子如何 -w-
|
|