澳门新萄京官方网站-www.8455.com-澳门新萄京赌场网址

增加服务器稳定性的12种技术,使用iSCSI服务部署

2019-09-22 作者:服务器运维   |   浏览(172)

现在服务器中存储的信息越来越多,而且也越来越重要;为防止服务器发生意外或受到意外攻击,而导致大量重要的数据丢失,服务器一般都会采用许多重要的安全保护技术来确保其安全。下面就介绍一些主要的服务器安全热点技术。

章节概述:

什么是SAN与NAS
By  王文平 发表于 2006-7-10 18:03:53 

NAS和SAN字面上相似,并且都是新型数据存储模式,但这二者是完全不同的,针对不同方向的技术。 
什么是SAN(Storage Area Network,存储区域网)
SAN(Storage Area Network,存储区域网)是一个高速的子网,这个子网中的设备可以从你的主网卸载流量。通常SAN由RAID阵列连接光纤通道(Fibre Channel)组成,SAN和服务器和客户机的数据通信通过SCSI命令而非TCP/IP,数据处理是“块级”(block level)。示意图如下:

存储知识学习之--IP网络存储iSCSI的概念与工作原理

NAS FAQ - 鹤之淇水 - CSDN博客 

1、iSCSI技术

本章节将分析SCSI与iSCSI技术结构的不同,了解iSCSI技术的优势、SAN存储网络技术结构以及iSCSI HBA卡的作用。
完整演示部署iSCSI target服务程序的方法流程:创建RAID阵列(5)后使用targetcli命令发布到iSCSI存储目录并创建ACL列表。
配置使用iSCSI initiator服务程序发现、连接并使用iSCSI存储设备,最后编辑fstab文件将存储设备设置为开机启动。

 

本章主要介绍基于IP SAN的网络存储iSCSI。iSCSI技术以其低廉的构建成本和优秀的存储性能,博得了很多CIO和存储管理员的喜爱,目前陆续进入企业应用领域,推动了企业的存储环境向集中式转变。虽然,目前对于iSCSI应该在什么样的环境中使用还存在着诸多争议,但是iSCSI的前途是光明的,在未来的存储世界中,iSCSI一定会占据重要的席位。本章重点介绍iSCSI在Windows和Linux环境下的配置和使用。

FC SAN FAQ - 鹤之淇水 - CSDN博客 

iSCSI技术是一种新型储存保护技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料。该技术不仅价格较目前普遍使用的业界技术标准Fibre Channel 低廉,而且系统管理人员可以用相同的设备来管理所有的网络,并不需要以另外的设备来进行网络的管理。

 

什么是NAS(Network Attached Storage,网络附加存储) NAS(Network Attached Storage,网络附加存储)的典型组成是使用TCP/IP协议的以太网文件服务器,数据处理是“文件级”(file level)。你可以把NAS存储设备附加在已经存在的太网上。

存储的概念与术语

IP SAN FAQ - 鹤之淇水 - CSDN博客 

iSCSI技术是由IBM下属的两大研发机构——加利福尼亚Almaden和以色列Haifa研究中心共同开发的,是一个供硬件设备使用的、可以在IP协议上层运行的SCSI指令集。简单地说,iSCSI可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。现在,许多网络存储提供商致力于将SAN(Storage Area Network,存储区域网络)中使用的光纤通道设定为一种实用标准,但其架构需要高昂的建设成本,这不是一般的企业所能够承受的;与之相对,NAS技术虽然成本低廉,但是却受到带宽消耗的限制,无法完成大容量存储的应用,而且系统难以满足开放性的要求。iSCSI技术的使用在以上两者之间架设了一道桥梁。iSCSI技术是基于IP协议的技术标准,实现了SCSI和TCP/IP协议的连接,对于以局域网为网络环境的用户,只需要不多的投资,就可以方便、快捷地对信息和数据进行交互式传输和管理。虽然iSCSI基于IP协议,却拥有SAN大容量集中开放式存储的品质。这一技术对于一边要面对信息高速增长,另一边却身处“数据孤岛”的众多中小企业无疑具有巨大的吸引力。

本章目录结构

SAN与NAS区别 区分SAN与NAS最简单的方法是想想二者在技术上是如何实施的。NAS通常是一个服务器群:应用服务器、邮件服务器等等,存储设备易于附加在这个系统上。SAN多部署与电子商务应用中,大量的数据备份和其它业务需要在网上频繁地存储和传输;SAN可以从你的主网上卸掉大量的数据流量,可以使你的以太网从数据拥塞中解脱出来。

在存储的世界里,有各种各样的名词和术语,常见的有SCSI、FC、DAS、NAS、SAN等。本节重点介绍与存储相关的术语和知识。

WWN、WWNN和WWPN - 鹤之淇水 - CSDN博客 

2、全自动备份技术

  • 17.1 网络存储技术
  • 17.2 部署iSCSI存储
    • 17.2.1 配置iSCSI服务端
    • 17.2.2 配置iSCSI客户端

 目前服务器所使用的专业存储方案有DAS、NAS、SAN、iSCSI几种。存储根据服务器类型可以分为:封闭系统的存储和开放系统的存储:

1、SCSI介绍


该技术是在网络系统上建立起两套同样的且同步工作的文件服务器,如果其中一套出现故障,另一套将立即自动接入系统,接替发生故障的文件服务器的全部工作。通过使用该技术,可以确保容错系统的数据信息在由于系统或人为误操作造成损坏或丢失后,能及时在本地实现数据快速恢复;另外,该技术还可以确保容错系统在发生不可预料或抵御的地域性灾难地震、火灾、机器毁坏等)时,及时在本地或异地实现数据及整个系统的灾难恢复。

17.1 网络存储技术

传统的SCSI小型计算机系统接口(Small Computer System Interface)技术是存储设备最基本的标准协议,但通常需要设备互相靠近并用SCSI总线链接,因此受到了物理环境的限制。

iSCSI小型计算机系统接口(即Internet Small Computer System Interface)则是由IBM公司研究开发用于实现在IP网络上运行SCSI协议的新存储技术,即能够让SCSI接口与以太网技术相结合,使用iSCSI协议基于以太网传送SCSI命令与数据,克服了SCSI需要直接连接存储设备的局限性,使得我们可以跨越不同的服务器共享存储设备,并可以做到不停机状态下扩展存储容量。

SAN存储区域网络技术(Storage Area Network)便是基于iSCSI存储协议,采用高速光钎通道传输存储数据的服务程序。
图片 1

本图为SAN结构拓扑

服务器会基于iSCSI协议将SCSI设备、命令与数据打包成标准的TCP/IP包然后通过IP网络传输到目标存储设备,而远端存储设备接收到数据包后需要基于iSCSI协议将TCP/IP包解包成SCSI设备、命令与数据,这个过程无疑会消耗系统CPU资源,因此我们可以将SCSI协议的封装动作交由独立的iSCSI HBA硬件卡来处理,减少了对服务器性能的影响。
图片 2

本图中设备为iSCSI HBA卡

但坦白来讲iSCSI技术还是存在诸多问题的,如距离与带宽之间的矛盾关系,虽然iSCSI满足了数据长距离传输的需求,但现在广域网的带宽还是不够理想,IP网络的速率和延迟都是iSCSI传输数据的巨大障碍。

       (1)封闭系统主要指大型机.

SCSI是小型计算机系统接口(Small Computer System Interface)的简称,SCSI作为输入/输出接口,主要用于硬盘、光盘、磁带机、扫描仪、打印机等设备。

1.LUN

3、事务跟踪技术

17.2 部署iSCSI存储

iSCSI的工作方式分为服务端(target)与客户端(initiator):

服务端:即存放硬盘或RAID设备的存储端,目的是为客户端提供可用的存储。
客户端:使用服务端的服务器主机。

本实验需要两台虚拟主机来完成,分别是:

编辑
主机名称 操作系统 IP地址
iscsi服务端 红帽RHEL7操作系统 192.168.10.10
iscsi客户端 红帽RHEL7操作系统 192.168.10.20

逻辑单元LUN(即Logical Unit Number)是使用iSCSI协议中的重要概念,因为当客户机想要使用服务端存储设备时都必需输入对应的名称(Target ID),而一个服务端可能会同时提供多个可用的存储设备,于是便用LUN来详细的描述设备或对象,同时每个LUN Device可能代表一个硬盘或RAID设备,LUN的名称由用户指定。

       (2)开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;                       开放系统的存储分为:内置存储和外挂存储;

2、FC介绍

LUN的全称是Logical Unit Number,也就是逻辑单元号。

该技术是针对数据库和多用户软件的需要而设计的,用以保证数据库和多用户应用软件在全部处理工作还没有结束时,或者在工作站或服务器发生突然损坏的情况下,能够保持数据的一致。其工作方式是:对指定的事务操作)要么一次完成,要么什么操作也不进行。

17.2.1 配置iSCSI服务端

第1步:准备作为LUN发布的存储设备。

在前面的存储结构章节中学习了使用mdadm工具创建RAID磁盘冗余阵列的方法,忘记就翻回去看下吧~

在虚拟机中再添加4块硬盘:

图片 3

创建RAID5并设置1块备份故障盘:

[root@linuxprobe ~]# mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

查看RAID阵列的详细信息,记录下UUID的值:

[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Thu Sep 24 21:59:57 2015
     Raid Level : raid5
     Array Size : 41909248 (39.97 GiB 42.92 GB)
  Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
   Raid Devices : 3
  Total Devices : 4
    Persistence : Superblock is persistent
    Update Time : Thu Sep 24 22:02:23 2015
          State : clean 
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
         Layout : left-symmetric
     Chunk Size : 512K
           Name : linuxprobe.com:0  (local to host linuxprobe.com)
           UUID : 3370f643:c10efd6a:44e91f2a:20c71f3e
         Events : 26
    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       4       8       48        2      active sync   /dev/sdd
       3       8       64        -      spare   /dev/sde

创建RAID阵列配置文件:

[root@linuxprobe ~]# vim /etc/mdadm.conf
DEVICE /dev/sdb /dev/sdc /dev/sdd /dev/sde
ARRAY /dev/md0 UUID=3370f643:c10efd6a:44e91f2a:20c71f3e

第2步:安装iSCSI target服务程序:

[root@linuxprobe ~]# yum -y install targetd targetcli
Loaded plugins: langpacks, product-id, subscription-manager
………………省略部分安装信息………………
Dependencies Resolved
================================================================================
 Package                  Arch        Version                  Repository  Size
================================================================================
Installing:
 targetcli                noarch      2.1.fb34-1.el7           rhel7       55 k
 targetd                  noarch      0.7.1-1.el7              rhel7       48 k
Installing for dependencies:
 PyYAML                   x86_64      3.10-11.el7              rhel7      153 k
 libyaml                  x86_64      0.1.4-10.el7             rhel7       55 k
 lvm2-python-libs         x86_64      7:2.02.105-14.el7        rhel7      153 k
 pyparsing                noarch      1.5.6-9.el7              rhel7       94 k
 python-configshell       noarch      1:1.1.fb11-3.el7         rhel7       64 k
 python-kmod              x86_64      0.9-4.el7                rhel7       57 k
 python-rtslib            noarch      2.1.fb46-1.el7           rhel7       75 k
 python-setproctitle      x86_64      1.1.6-5.el7              rhel7       15 k
 python-urwid             x86_64      1.1.1-3.el7              rhel7      654 k
Transaction Summary
================================================================================
Install  2 Packages ( 9 Dependent packages)
………………省略部分安装信息………………
Complete!

启动iSCSI target服务程序:

[root@linuxprobe ~]# systemctl start targetd

将iSCSI target服务程序添加到开机启动项:

[root@linuxprobe ~]# systemctl enable targetd
ln -s '/usr/lib/systemd/system/targetd.service' '/etc/systemd/system/multi-user.target.wants/targetd.service'

第3步:创建存储对象。
targetcli命令用于管理iSCSI target存储设备,格式为:“targetcli”

[root@linuxprobe ~]# targetcli
Warning: Could not load preferences file /root/.targetcli/prefs.bin.
targetcli shell version 2.1.fb34
Copyright 2011-2013 by Datera, Inc and others.
For help on commands, type 'help'.

增加服务器稳定性的12种技术,使用iSCSI服务部署网络存储。查看当前的存储目录树:

/> ls
o- / ..................................................................... [...]
o- backstores .......................................................... [...]
| o- block .............................................. [Storage Objects: 0]
| o- fileio ............................................. [Storage Objects: 0]
| o- pscsi .............................................. [Storage Objects: 0]
| o- ramdisk ............................................ [Storage Objects: 0]
o- iscsi ........................................................ [Targets: 0]
o- loopback ..................................................... [Targets: 0]

进入/backstores/block目录中:

/> cd /backstores/block
/backstores/block>

使用/dev/md0创建设备disk0:

/backstores/block> create disk0 /dev/md0
Created block storage object disk0 using /dev/md0.

返回到根目录中:

/backstores/block> cd ..
/backstores> cd ..
/> 

查看创建后的设备:

/> ls
o- / ..................................................................... [...]
  o- backstores .......................................................... [...]
  | o- block .............................................. [Storage Objects: 1]
  | | o- disk0 ..................... [/dev/md0 (40.0GiB) write-thru deactivated]
  | o- fileio ............................................. [Storage Objects: 0]
  | o- pscsi .............................................. [Storage Objects: 0]
  | o- ramdisk ............................................ [Storage Objects: 0]
  o- iscsi ........................................................ [Targets: 0]
  o- loopback ..................................................... [Targets: 0]

第4步:配置iSCSI target目标。
进入到iscsi目录中:

/> cd iscsi
/iscsi> 

创建iSCSI target目标:

/iscsi> create
Created target iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80.
Created TPG 1.

依次进入到target的luns目录中:

/iscsi> cd iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80/
/iscsi/iqn.20....d497c356ad80> ls
o- iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80 ...... [TPGs: 1]
  o- tpg1 ............................................... [no-gen-acls, no-auth]
    o- acls .......................................................... [ACLs: 0]
    o- luns .......................................................... [LUNs: 0]
    o- portals .................................................... [Portals: 0]
/iscsi/iqn.20....d497c356ad80> cd tpg1/
/iscsi/iqn.20...c356ad80/tpg1> cd luns
/iscsi/iqn.20...d80/tpg1/luns> 

创建LUN设备:

/iscsi/iqn.20...d80/tpg1/luns> create /backstores/block/disk0 
Created LUN 0.

第5步:设置访问控制列表。
切换到acls目录中:

/iscsi/iqn.20...d80/tpg1/luns> cd ..
/iscsi/iqn.20...c356ad80/tpg1> cd acls 

创建访问控制列表:

/iscsi/iqn.20...d80/tpg1/acls> create iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80:client
Created Node ACL for iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80:client
Created mapped LUN 0.

增加服务器稳定性的12种技术,使用iSCSI服务部署网络存储。切换到portals目录中:

/iscsi/iqn.20...d80/tpg1/acls> cd ..
/iscsi/iqn.20...c356ad80/tpg1> cd portals 

添加允许监听的IP地址:

/iscsi/iqn.20.../tpg1/portals> create 192.168.10.10
Using default IP port 3260
Created network portal 192.168.10.10:3260.

查看配置概述后退出工具:

/iscsi/iqn.20.../tpg1/portals> ls /
o- / ........................... [...]
  o- backstores................. [...]
  | o- block ................... [Storage Objects: 1]
  | | o- disk0 ................. [/dev/md0 (40.0GiB) write-thru activated]
  | o- fileio .................. [Storage Objects: 0]
  | o- pscsi ................... [Storage Objects: 0]
  | o- ramdisk ................. [Storage Objects: 0]
  o- iscsi ..................... [Targets: 1]
  | o- iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80 .... [TPGs: 1]
  |   o- tpg1 .................. [no-gen-acls, no-auth]
  |     o- acls ........................................................ [ACLs: 1]
  |     | o- iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80:client [Mapped LUNs: 1]
  |     |   o- mapped_lun0 ............................................. [lun0 block/disk0 (rw)]  
    o- luns .................... [LUNs: 1]
  |     | o- lun0 .............. [block/disk0 (/dev/md0)]
  |     o- portals ............. [Portals: 1]
  |       o- 192.168.10.10:3260  [OK]
  o- loopback .................. [Targets: 0]
/> exit
Global pref auto_save_on_exit=true
Last 10 configs saved in /etc/target/backup.
Configuration saved to /etc/target/saveconfig.json

第4步:创建防火墙允许规则:

[root@linuxprobe ~]# firewall-cmd --permanent  --add-port=3260/tcp
success
[root@linuxprobe ~]# firewall-cmd --reload
success

       (3)开放系统的外挂存储根据连接的方式分为:

FC是光纤通道(Fibre Channel)的简称,是一种适合于千兆数据传输的、成熟而安全的解决方案。与传统的SCSI技术相比,FC提供更高的数据传输速率,更远的传输距离,更多的设备连接支持,更稳定的性能,更简易的安装。

我们知道SCSI总线上可挂接的设备数量是有限的,一般为8个或者16个,我们可以用Target ID(也有称为SCSI ID的)来描述这些设备,设备只要一加入系统,就有一个代号,我们在区别设备的时候,只要说几号几号就可以了。

4、自动检验技术

17.2.2 配置iSCSI客户端

首先检查能够与iscsi服务端通信:

[root@linuxprobe ~]# ping -c 4 192.168.10.10
PING 192.168.10.10 (192.168.10.10) 56(84) bytes of data.
64 bytes from 192.168.10.10: icmp_seq=1 ttl=64 time=0.959 ms
64 bytes from 192.168.10.10: icmp_seq=2 ttl=64 time=0.469 ms
64 bytes from 192.168.10.10: icmp_seq=3 ttl=64 time=0.465 ms
64 bytes from 192.168.10.10: icmp_seq=4 ttl=64 time=0.277 ms

--- 192.168.10.10 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3002ms
rtt min/avg/max/mdev = 0.277/0.542/0.959/0.253 ms

红帽RHEL7系统已经默认安装了iscsi客户端服务程序:

[root@linuxprobe ~]# yum install iscsi-initiator-utils
Loaded plugins: langpacks, product-id, subscription-manager
Package iscsi-initiator-utils-6.2.0.873-21.el7.x86_64 already installed and latest version
Nothing to do

编辑的iscsi客户端名称文件:
该名称是initiator客户端的唯一标识,读者可以按照我的方法修改,也可以用iscsi-iname命令随机生成~都可以的。

[root@linuxprobe ~]# vim /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80:client

重启iscsi客户端服务程序:

[root@linuxprobe ~]# systemctl restart iscsid

将iscsi客户端服务程序添加到开机启动项中:

[root@linuxprobe ~]# systemctl enable iscsid
ln -s '/usr/lib/systemd/system/iscsid.service' '/etc/systemd/system/multi-user.target.wants/iscsid.service'

发现iscsi服务端的可用存储设备:
iscsiadm命令用于管理(插入、查询、更新或删除)iSCSI数据库配置文件的命令行工具,格式见下面演示。

[root@linuxprobe ~]# iscsiadm -m discovery -t st -p 192.168.10.10
192.168.10.10:3260,1 iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80

连接iscsi服务端的可用存储设备:

[root@linuxprobe ~]# iscsiadm -m node -T iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80 -p 192.168.10.10 --login
Logging in to [iface: default, target: iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80, portal: 192.168.10.10,3260] (multiple)
Login to [iface: default, target: iqn.2003-01.org.linux-iscsi.linuxprobe.x8664:sn.d497c356ad80, portal: 192.168.10.10,3260] successful.

此时便多了一块硬盘设备:

[root@linuxprobe ~]# file /dev/sdb 
/dev/sdb: block special

格式化、挂载后查看容量信息:

[root@linuxprobe ~]# mkfs.xfs /dev/sdb
log stripe unit (524288 bytes) is too large (maximum is 256KiB)
log stripe unit adjusted to 32KiB
meta-data=/dev/sdb               isize=256    agcount=16, agsize=654720 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0
data     =                       bsize=4096   blocks=10475520, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=0
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@linuxprobe ~]# mkdir /iscsi
[root@linuxprobe ~]# mount /dev/sdb /iscsi
[root@linuxprobe ~]# df -h
Filesystem             Size  Used Avail Use% Mounted on
/dev/mapper/rhel-root   18G  3.4G   15G  20% /
devtmpfs               734M     0  734M   0% /dev
tmpfs                  742M  176K  742M   1% /dev/shm
tmpfs                  742M  8.8M  734M   2% /run
tmpfs                  742M     0  742M   0% /sys/fs/cgroup
/dev/sr0               3.5G  3.5G     0 100% /media/cdrom
/dev/sda1              497M  119M  379M  24% /boot
/dev/sdb                40G   33M   40G   1% /iscsi

查看设备的UUID值:

[root@linuxprobe ~]# blkid | grep /dev/sdb
/dev/sdb: UUID="eb9cbf2f-fce8-413a-b770-8b0f243e8ad6" TYPE="xfs" 

设置为开机后自动挂载时因为iSCSI服务程序基于IP网络传输数据,所以我们必需在fstab文件中添加参数_netdev,代表网络联通后再挂载:

[root@linuxprobe ~]# vim /etc/fstab
UUID=eb9cbf2f-fce8-413a-b770-8b0f243e8ad6 /iscsi xfs defaults,_netdev 0 0

              直连式存储(DAS:Direct-Attached Storage)和网络化存储(Fabric-Attached Storage:FAS)

3、DAS介绍

而实际上我们需要用来描述的对象,是远远超过该数字的,于是我们引进了LUN的概念,也就是说LUN ID的作用就是扩充了Target ID。每个Target下都可以有多个LUN Device,我们通常简称LUN Device为LUN,这样就可以说每个设备的描述就由原来的Target x变成Target x LUN y了,那么显而易见的,我们描述设备的能力增强了。

一般来说,在对错误的或者被损坏的数据进行恢复之前,系统必须要有能力来及时发现引起这些错误的原因,所以,一个完整的容错系统应该离不开自动检验技术的支持。自动检验技术是用于故障快速检测的一种有效手段,特别是具有完全自校验性质的自校验装置,它不仅能及时检查出系统模块的差错,还能够检测出自身的差错。在设计一个容错系统时,如果正确地使用自动检验技术,可以大大提高系统对差错的反应能力,使差错的潜伏期缩短,有效地阻止错误的进一步蔓延,从而有利于其他技术功能及时对错误做出相关的纠正措施。

       (4)开放系统的网络化存储根据传输协议又分为:

DAS是直连式存储(Direct-Attached Storage)的简称,是指将存储设备通过SCSI接口或光纤通道直接连接到一台计算机上。当服务器在地理上比较分散,很难通过远程进行互连时,DAS是比较好的解决方案。但是这种式存储只能通过与之连接的主机进行访问,不能实现数据与其他主机的共享,同时,DAS会占用服务器操作系统资源,例如CPU资源、IO资源等,并且数据量越大,占用操作系统资源就越严重。

就好比,以前你给别人邮寄东西,写地址的时候,可以写:

5、内存纠错技术

              NAS:Network-Attached Storage和SAN:Storage Area Network。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上.

4、NAS介绍

xx市人民大街54号 xxx(收)

该技术是一种服务器透明检测及故障纠错技术,它在发现并更正一个内存错误的同时,可使坏数据位从RAM上被擦除,从而有效减少无法更正的多位错误的发生。

 

网络接入存储(Network-Attached Storage)简称NAS,它通过网络交换机连接存储系统和服务器,建立专门用于数据存储的私有网络,用户通过TCP/IP协议访问数据,采用业界标准的文件共享协议如NFS、HTTP、CIFS来实现基于文件级的数据共享。NAS存储使文件共享访问变得更方便和快捷,并且能很容易地增加存储容量。通过专业化的文件服务器与存储技术相结合,NAS为那些需要共享大量文件数据的企业提供了一个高效的、高可靠的、高性价比的解决方案。但是NAS也有一定的局限性,它会受到网络带宽和网络拥堵的影响,在一定程度上限制了NAS的网络传输能力。

但是自从高楼大厦越来越多,你不得不这么写:

6、热定位技术

 图片 4 

5、SAN介绍

xx市人民大街54号xx大厦518室 xxx (收)

该技术也是一种检查数据错误的技术,该技术可以对写入磁盘的数据进行一些检查比较工作,从而确定刚刚读入的数据是否正确或者是否有其他方面的问题。在进行检修比较工作时,该技术可以自动从硬盘中把刚写入的数据读出来与内存中的原始数据进行比较。如果出现错误,则利用在硬盘内开设的一个被称为 “热定位重定区”的区,将硬盘坏区记录下来,并将已确定的坏区中的数据用原始数据写入热定位重定区中。

 

存储区域网络(Storage Area Network)简称SAN,它是一种通过光纤交换机、光纤路由器、光纤集线器等设备将磁盘阵列、磁带等存储设备与相关服务器连接起来的高速专用子网。

所以我们可以总结一下,LUN就是我们为了使用和描述更多设备及对象而引进的一个方法而已,一点也没什么特别的地方。

7、自动重启技术

一、直接附加存储(DAS:Direct-Attached Storage)

SAN由3个部分组成,分别是连接设备(如路由器、光纤交换机和Hub)、接口(如SCSI、FC)、通信协议(如IP和SCSI)。这3个部分再加上存储设备和服务器就构成了一个SAN系统。SAN捉供了一个灵活的、高性能的和高扩展性的存储网络环境,它可以更加有效地传输海量的数据块。由于采用了光纤接口,因此SAN还具有更高的带宽,同时,SAN也使统一管理和集中控制实现简化。现在SAN已经广泛应用于ISP和银行等,随着用户业务量的增大,SAN的应用前景将越来越光明。

LUN ID不等于某个设备,只是个号码而已,不代表任何实体属性,在我们的实际环境里,我们碰到的LUN可能是磁盘空间,可能是磁带机,或者是media changer等等。

自动重启技术是指PC服务器可以在无人管理的情况下完成重新启动过程,以极快的速度恢复系统运行。

  DAS网络存储知识:直接附加存储是指将存储设备通过SCSI接口直接连接到一台服务器上使用。DAS购置成本低,配置简单,使用过程和使用本机硬盘并无太大差别,对于服务器的要求仅仅是一个外接的SCSI口,因此对于小型企业很有吸引力。

iSCSI的概念

2.磁盘管制

8、网络监控技术

 

iSCSI,即Internet SCSI,是IETF制订的一项标准,用于将SCSI数据块映射为以太网数据包。从根本上说,它是一种基于IP Storage理论的新型存储技术,该技术将存储行业广泛应用的SCSI接口技术与IP网络技术相结合,可以在IP网络上构建SAN。简单地说,iSCSI就是在IP网络上运行SCSI协议的一种网络存储技术。iSCSI技术最初由Cisco和IBM两家开发,并且得到了广大IP存储技术爱好者的大力支持,这几年得到迅速的发展壮大。

主机的HBA 卡看到的存储上的存储资源就靠主要两个东西来定位,一个就是存储系统的控制器(Target),一个就是LUN ID,这个LUN是由存储的控制系统给定的,是存储系统的某部分存储资源。

该技术可以让用户在一台普通的客户机上即可监测网络上所有使用的服务器,监控和判断服务器是否“健康”,一旦服务器的机箱、风扇、内存、处理器、系统信息、温度、电压或第三方硬件中的任何一项出现错误,就会报警提示管理人员。值得一提的是,监测端和服务器端之间的网络可以是局域网,也可以是广域网,直接通过网络对服务器进行启动、关闭或重新置位,极大地方便了管理和维护工作。

DAS的不足之处:

对于中小企业的存储网络来说,iSCSI是个非常好的选择。首先,从技术实现上来讲,iSCSI是基于IP协议的技术标准,它允许网络在TCP/IP协议上传输SCSI命令,实现SCSI和TCP/IP协议的连接,这样用户就可以通过TCP/IP网络来构建SAN,只需要不多的投资,就可以方便、快捷地对信息和数据进行交互式传输和管理。但是,在iSCSI出现之前,构建SAN的唯一技术是利用光纤通道,这要花费很大的建设成本,一般中小企业无法承担。其次,iSCSI技术解决了传输效率、存储容量、兼容性、开放性、安全性等方面的诸多问题,在使用性能上绝对不输给商业的存储系统或光纤存储网络。

我们有了独立的磁盘阵列用了之后,服务器只要看到存储的控制系统,就有可能使用磁盘阵列的磁盘资源,但是磁盘阵列不可能只为某一个服务器来使用,所以它必须管制主机使用某部分磁盘资源。

9、故障的在线修复技术

       (1)服务器本身容易成为系统瓶颈;

iSCSI的优势主要表现为:首先,iSCSI沿用TCP/IP协议,而TCP/IP是在网络方面最通用、最成熟的协议,且IP网络的基础建设非常完善,同时,SCSI技术是被磁盘和磁带等设备广泛采用的存储标准,这两点使iSCSI的建设费用和维护成本非常低廉;其次,iSCSI支持一般的以太网交换机而不是特殊的光纤通道交换机,从而减少了异构网络带来的麻烦;还有,iSCSI是通过IP封包传输存储命令,因此可以在整个Internet上传输数据,没有距离的限制。

这个管制分为两个部分:

故障的在线修复技术包括故障部件可带电插拔和部件的在线配置技术。可带电插拔的部件有硬盘、内存、外设插卡、电源、风扇等,目前PC服务器中值得骄傲的技术是PCI的热插拔。模块化设计将是今后的发展方向。 

              直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。

FC SAN与IP SAN

一部分就是LUN mapping,类似于绿色通道,就是保证服务器能看到某部分存储资源,

10、文件分配表和目录表技术

       (2)服务器发生故障,数据不可访问;

在iSCSI技术出现后,通过IP技术搭建的存储网络也应运而生,SAN技术也就出现了两种不同的实现方式,即FC SAN与IP SAN。简单来说,以光纤搭建的存储网络就是FC SAN.以iSCSI技术搭建的存储网络叫做IP SAN。

一部分就是LUN masking,类似于警戒线,就是保证服务器只可访问给它分配的存储资源,而没分配给服务器的资源,就不要染指了。

硬盘上的文件分配表和目录表存放着文件在硬盘上的位置和文件大小等信息,如果它们出现故障,数据就会丢失或误存到其他文件中。通过提供两份同样的文件分配表和目录表,把它们存放在不同的位置,一旦某份出现故障,系统将做出提示,从而达到容错的目的。

       (3)对于存在多个服务器的系统来说,设备分散,不便管理。同时多台服务器使用DAS时,存储空间不能在服务器之间动态分配,可能造成相当的资源浪费;

作为SAN的两种实现方式,FC SAN与IP SAN各有优劣,下面从几个方面分别阐述。

实现LUN masking和LUN mapping有三种方法:

11、VersaStor技术

       (4)数据备份操作复杂。

在数据传输方式上,FC SAN与IP SAN都采用块协议方式来完成。这是它们的相同点。

一个是基于存储控制系统来设置,

该技术是康柏电脑公司在数据存储方面的力作之一,它最大的亮点是首次实现了网络存储池的概念,以消除目前广泛存在于不同存储系统之间的界限,这样就能在不同的存储系统之间进行轻松的存储和管理。另外,存储池的容量还可以根据不同服务器和应用程序动态而透明地缩放,支持不同服务器数据的无缝、透明移植。VersaStor技术能为任何一个与SAN网络连接的在线存储系统提供存储空间的获取与存放,而无须考虑生产商;而且该技术简化了存储系统的部署,对存储的管理由一般的机械劳动提升到了一个较高的级别。

 

在传输速度上,就目前的传输速率而言,FC SAN(2Gbit/s)最快,iSCSI(lGbit/s)次之

一个是基于存储交换系统来设置, 比如常说的zoning。

12、AutoRAID技术

SCSI 总线和协议

在传输距离上,FC SAN理论上可以达到100公里,而事实上,传输超过50公里后,就会出现瓶颈。而通过IP网络的iSCSI技术在理论上没有距离的限制,即iSCSI可以进行没有距离限制的数据传输。

一个是基于服务器OS来设置。

该技术是综合了不同RAID优点的多级RAID阵列技术,它将最近使用的数据放在按RAID 0/1存储的快速高性能的硬盘中,将不太常用的数据放在RAID5存储的经济高效的硬盘中。有了AutoRAID,系统的安装、配置和扩展变得简单而容易,该技术不再需要将数据转移到阵列中的其他硬盘上,只需将新硬盘安装好,AutoRAID就可以自动地判断硬盘大小,并将它加入硬盘阵列中;系统马上就可以利用新硬盘的空间,并将更多的数据按RAID 0/1存储,以提高系统的性能和存取速度。此外,AutoRAID能够管理由不同容量硬盘组成的硬盘阵列。

管理及维护成本上,架设FC SAN网络需要投入很多硬件成本,并且需要特定的工具软件进行操作管理,而IP SAN构建成本低廉,由于iSCSI是通过IP网络来传输数据和分配存储资源的,因此只要在现有的网络上进行管理和使用即可,这样就可以省下大笔的管理费用及培训成本。

3.volume

...

 

其实IP SAN也面临着一些不可回避的困扰:首先,基于IP SAN的网络存储还没有得到用户的充分肯定:其次,IP SAN存储需要专门的驱动和设备,幸运的是,一些传统的光纤适配器厂商都发布了iSCSI HBA设备,同时Inter也推出了专用的IP存储适配器,而Microsoft、HP、Novell、SUN、AIX、Linux也具有iSCSI Initiator软件,并且免费供用户使

LUN是对存储设备而言的,volume是对主机而言的。

 

用:还有,在安全方面,IP SAN虽然有一套规范的安全机制,但是尚未得到用户的认可。

怎么去理解呢?

二、网络附加存储(NAS:Network Attached Storage)

这些问题和困扰虽然会妨碍iSCSI的发展,但是相信在未来的网络存储世界里,IP SAN绝对金拥有一席之地。

选择存储设备上的多个硬盘形成一个RAID组,再在RAID组的基础上创建一个或多个LUN(一般创建一个LUN)。许多厂商的存储设备只支持一个RAID组上创一个LUN。此时LUN相对于存储设备是一个逻辑设备。

  NAS网络存储知识:NAS实际是一种带有瘦服务器的存储设备。这个瘦服务器实际是一台网络文件服务器。NAS设备直接连接到TCP/IP网络上,网络服务器通过TCP/IP网络存取管理数据。NAS作为一种瘦服务器系统,易于安装和部署,管理使用也很方便。同时由于可以允许客户机不通过服务器直接在NAS中存取数据,因此对服务器来说可以减少系统开销。

iSCSI的组成

当网络中的主机连接到存储设备时,就可以识别到存储设备上逻辑设备LUN,此时LUN相对于主机来讲就是一个“物理硬盘”,与C盘D盘所在IDC或SCSI硬盘的性属是相同的。在该“物理硬盘”上创建一个或多个分区,再创建文件系统,才可以得到一个VOLUM。此时VOLUME相对于主机是一个逻辑设备。

       NAS为异构平台使用统一存储系统提供了解决方案。由于NAS只需要在一个基本的磁盘阵列柜外增加一套瘦服务器系统,对硬件要求很低,软件成本也不高,甚至可以使用免费的LINUX解决方案,成本只比直接附加存储略高。

一个简单的iSCSI系统大致由以下部分组成:

从容量大小方面比较VOLUME,分区、LUN、RAID的关系如下:

 

iSCSI Initiator或者iSCSI HBA

VOLUME = 分区 ≤ 主机设备管理器中的磁盘 = LUN ≤ RAID ≤ 存储设备中硬盘的总容量。

NAS存在的主要问题是:

iSCSI Target

上述只是针对一般情况,VOLUME也只是针对主机来讲。个别厂商对LUN和VOLUME定义与普通厂商的定义不同,甚至会起一些奇怪的名称,这些名称即使是存储行业的资深人士也不一定全明白。不过只要你能分清楚其实质就行。

       (1)由于存储数据通过普通数据网络传输,因此易受网络上其它流量的影响。当网络上有其它大数据流量时会严重影响系统性能;

以太网交换机

4. 多访问

       (2)由于存储数据通过普通数据网络传输,因此容易产生数据泄漏等安全问题;

一台或者多台服务器

服务器使用多个HBA连接到存储网络,存储网络又可能是由多个交换设备组成,而存储系统又可能有多个控制器和链路,LUN到服务器的存储网络链路又可能存在着多条不同的逻辑链路。那么,必然的,同一个physical LUN在服务器上必然被识别为多个设备。因为OS区别设备无非用的是总线、Target ID、LUN ID来,只要号码不同,就认为是不同的设备。

       (3)存储只能以文件方式访问,而不能像普通文件系统一样直接访问物理数据块,因此会在某些情况下严重影响系统效率,比如大型数据库就不能使用NAS。

一个完整的iSCSI系统的拓扑结构如图7-1所示。

图片 5

 

图片 6

5.HBA

文件系统 和 网络附接存储(NAS: Network Attached Storage)

图7-1  完整的iSCSI系统拓扑结构

HBA,即主机总线适配器英文“Host Bus Adapter”缩写。

在图7-1中,iSCSI服务器用来安装iSCSI驱动程序,即安装iSCSI Initiator;Storage Router可以是以太网交换机或者路由器;iSCSI存储设备可以是iSCSI磁盘阵列,也可以是具有存储功能的PC服务器。下面详细介绍一下iSCSI Initiator与iSCSI Target的含义。

是一个在服务器和存储装置间提供输入/输出(I/O)处理和物理连接的电路板或集成电路适配器。

 

1、iSCSI Initiator

因为HBA减轻了主处理器在数据存储和检索任务的负担,它能够提高服务器的性能。一个HBA和与之相连的磁盘子系统有时一起被称作一个磁盘通道。

三、存储区域网(SAN:Storage Area Networks)

iSCSI Initiator是一个安装在计算机上的软件或硬件设备,它负责与iSCSI存储设备进行通信。

1.lun

  SAN网络存储知识:SAN实际是一种专门为存储建立的独立于TCP/IP网络之外的专用网络。目前一般的SAN提供2Gb/S到4Gb/S的传输数率,同时SAN网络独立于数据网络存在,因此存取速度很快,另外SAN一般采用高端的RAID阵列,使SAN的性能在几种专业存储方案中傲视群雄。

iSCSI服务器与iSCSI存储设备之间的连接方式有两种:

LUN的全称是Logical Unit Number,也就是逻辑单元号,其主要作用是为了给相连的服务器分配逻辑单元号(LUN)。磁盘阵列上的硬盘组成RAID组后,通常连接磁盘阵列的服务器并不能直接访问RAID组,而是要再划分为逻辑单元才能分配给服务器。这是因为SCSI总线上可挂接的设备数量是有限的,一般为8个或者16个,我们可以用Target ID(也有称为SCSI ID的)来描述这些设备,设备只要一加入系统,就有一个代号,在区别设备的时候,只要说几号几号就可以了。而实际上需要用来描述的对象,是远远超过该数字的,于是引进了LUN的概念,也就是说LUN ID的作用就是扩充了Target ID。每个Target下都可以有多个LUN Device,通常简称LUN Device为LUN,这样就可以说每个设备的描述就由原来的Target x变成Target x LUN y了。LUN就是我们为了使用和描述更多设备及对象而引进的一个方法而已,一点也没什么特别的地方。

       SAN由于其基础是一个专用网络,因此扩展性很强,不管是在一个SAN系统中增加一定的存储空间还是增加几台使用存储空间的服务器都非常方便。通过SAN接口的磁带机,SAN系统可以方便高效的实现数据的集中备份。

第一种是基于软件的方式,即iSCSI Initiator软件。在iSCSI服务器上安装Initiator后,Initiator软件可以将以太网卡虚拟为iSCSI卡,进而接受和发送iSCSI数据报文,从而实现主机和iSCSI存储设备之间的iSCSI协议和TCP/IP协议传输功能。这种方式只需以太网卡和以太网交换机,无需其他设备,因此成本是最低的。但是iSCSI报文和TCP/IP报文转换需要消耗iSCSI服务器的一部分CPU资源,只有在低I/O和低带宽性能要求的应用环境中才能使用这种方式。

LUN ID不等于某个设备,只是个号码而已,不代表任何实体属性,在我们的实际环境里,我们碰到的LUN可能是磁盘空间,可能是磁带机,或者是media changer等等。

       SAN作为一种新兴的存储方式,是未来存储技术的发展方向,但是,它也存在一些缺点:

第二种是硬件iSCSI HBA (Host Bus Adapter)卡方式,即iSCSI Initiator硬件。这种方式需要先购买iSCSI HBA卡,然后将其安装在iSCSI服务器上,从而实现iSCSI服务器与交换机之间、iSCSI服务器与存储设备之间的高效数据传输。与第一种方式相比,硬件iSCSIHBA卡方式不需要消耗iSCSI服务器的CPU资源,同时硬件设备是专用的,所以基于硬件的iSCSI Initiator可以提供更好的数据传输和存储性能。但是,iSCSI HBA卡的价格比较昂贵,因此用户要在性能和成本之间进行权衡。

LUN的神秘之处(相对于一些新手来说)在于,它很多时候不是什么可见的实体,而是一些虚拟的对象。比如一个阵列柜,主机那边看作是一个Target Device,那为了某些特殊需要,我们要将磁盘阵列柜的磁盘空间划分成若干个小的单元给主机来用,于是就产生了一些什么逻辑驱动器的说法,也就是比Target Device级别更低的逻辑对象,我们习惯于把这些更小的磁盘资源称之为LUN0、LUN1、LUN2…什么的。而操作系统的机制使然,操作系统识别的最小存储对象级别就是LUN Device,这是一个逻辑对象,所以很多时候被称为Logical Device。服务器识别到的最小的存储资源,就是LUN级别的。主机的HBA 卡看到的存储上的存储资源就靠主要两个东西来定位,一个就是存储系统的控制器(Target),一个就是LUN ID,这个LUN是由存储的控制系统给定的,是存储系统的某部分存储资源。一旦服务器与LUN连接上,就可以通过当前的网络接口将数据传输到磁盘阵列上。

       (1)价格昂贵。不论是SAN阵列柜还是SAN必须的光纤通道交换机价格都是十分昂贵的,就连服务器上使用的光通道卡的价格也是不容易被小型商业企业所接受的;

iSCSI Initiator软件一般都是免费的,Centos和RHEL对iSCSI Initiator的支持都非常不错,现在的Linux发行版本都默认自带了iSCSI Initiator。

2.volume

       (2)需要单独建立光纤网络,异地扩展比较困难;

2、iSCSI Target

LUN是对存储设备而言的,volume是对主机而言的。

 

一个可以用于存储数据的iSCSI磁盘阵列或者具有iSCSI功能的设备都可以被称为“iSCSI Target”,因为大多数操作系统都可以利用一些软件将系统转变为一个“iSCSI Target”。本章重点讲述如何构建一个PC构架的iSCSI存储系统。所谓PC构架就是选择一个普通的、性能优良的、可支持多块磁盘的PC(一般为PC服务器),再选择一款相对成熟稳定的iSCSI Target软件,将iSCSI Target软件安装在PC服务器上,使普通的PC服务器转变成一台iSCSI存储设备,并通过PC服务器的以太网卡对外提供iSCSI数据传输服务。

怎么去理解呢?选择存储设备上的多个硬盘形成一个RAID组,再在RAID组的基础上创建一个或多个LUN(一般创建一个LUN)。许多厂商的存储设备只支持一个RAID组上创一个LUN。此时LUN相对于存储设备是一个逻辑设备。当网络中的主机连接到存储设备时,就可以识别到存储设备上逻辑设备LUN,此时LUN相对于主机来讲就是一个“物理硬盘”,与C盘D盘所在IDC或SCSI硬盘的性属是相同的。在该“物理硬盘”上创建一个或多个分区,再创建文件系统,才可以得到一个VOLUME。此时VOLUME相对于主机是一个逻辑设备。

 

目前大多数iSCSI Target软件都是收费的,例如DataCorcSoftware的SANmelody,FalconStorSoftware的iSCSI Server for Windows等,这些都是Windows平台支持的。不过,也有一些Linux平台的开源iSCSI Target软件,例如iSCSI Enterprise Target,后面的内容会重点介绍这个软件。

从容量大小方面比较VOLUME,分区、LUN、RAID的关系如下:

四、ISCSI(Internet SCSI)

利用iSCSI Target软件,可以将服务器的存储空间分配给客户机使用,客户机可以像使用本地硬盘一样使用iSCSI磁盘,包括对其进行分区、格式化及读写等。而且每个客户端都可以向iSCSI磁盘写数据,互不干扰,并且不会破坏存储到服务器中的数据。同时,iSCSITarget软件对用户权限控制非常灵活,支持配置文件。

VOLUME = 分区 ≤ 主机设备管理器中的磁盘 = LUN ≤ RAID ≤ 存储设备中硬盘的总容量。

  ISCSI网络存储知识:使用专门的存储区域网成本很高,而利用普通的数据网来传输ISCSI数据实现和SAN相似的功能可以大大的降低成本,同时提高系统的灵活性。

我们知道,iSCSI是使用TCP/IP协议进行通信的,因此,将iSCSI两端连接起来,仅仅需要一个以太网络就可以了。由此可知,iSCSI的存储性能和这个以太网络有直接关系,所以最好在iSCSI网络中使用千兆以太网交换机,劣质的网络设备会严重影响存储系统的性能,也就是说,要为每个服务器配备高质量的千兆以太网交换机,并提供两个连接。对于iSCSI Target,应该为每个独立阵列中的两个独立端口配备交换机,最后将交换机连接起来,采用这种配置方式,即使两个交换机中的一个出现了故障,整个iSCSI存储系统仍然能够正常工作,这保证了存储系统的不间断运行。

上述只是针对一般情况,VOLUME也只是针对主机来讲。个别厂商对LUN和VOLUME定义与普通厂商的定义不同,甚至会起一些奇怪的名称,这些名称即使是存储行业的资深人士也不一定全明白。不过只要你能分清楚其实质就行。

       SCSI就是这样一种技术,它利用普通的TCP/IP网来传输本来用存储区域网来传输的SCSI数据块。ISCSI的成本相对SAN来说要低不少。随着千兆网的普及,万兆网也逐渐的进入主流,使ISCSI的速度相对SAN来说并没有太大的劣势。

iSCSI的工作原理

3.HBA

 

要理解iSCSI的工作原理,就必须知道iSCSI的层次结构。根据OSI模型,iSCSI的协议自顶向下一共可以分为三层,如图7-2所示。

HBA,即主机总线适配器英文“Host Bus Adapter”缩写。是一个在服务器和存储装置间提供输入/输出(I/O)处理和物理连接的电路板或集成电路适配器。因为HBA减轻了主处理器在数据存储和检索任务的负担,它能够提高服务器的性能。一个HBA和与之相连的磁盘子系统有时一起被称作一个磁盘通道。

ISCSI目前存在的主要问题是:

图片 7

a、总线适配器是个什么东西呢?

       (1)新兴的技术,提供完整解决方案的厂商较少,对管理者技术要求高;

图7-2  iSCSI的协议结构

我们首先要了解一下主机的结构,一台计算机内部多半由两条总线串起来(当然实际情况会有不同,这里只讨论常见的,简单的情况),一条总线叫系统总线,一条叫I/O总线。系统总线上接了CPU,Memory,cache什么的,I/O总线上接的就是外围设备,现如今最常见的就是PCI总线了。这两条总线之间用桥接的芯片或者说电路连接起来。举个形象的例子,就好比一个城市里,有两条主干道,一条属于行政区,一条属于商业区,中间有个环岛,将两条主干道连接到了一起,系统总线就好比行政区里的主干道,而I/O总线就好比商业区的主干道。系统总线和I/O总线的带宽的单位都是以Gbyte来记,但是显而易见的是,行政区的主干道和商业区的主干道相比的话,前者肯定更“核心”,更宽,更顺畅,设计的要求也高。我们知道,在向公仆部门要求服务的时候,是要有一些接口的部门和程序的,而桥接芯片的作用就是连接和协调两条总线的工作的。

       (2)通过普通网卡存取iSCSI数据时,解码成SCSI需要CPU进行运算,增加了系统性能开销,如果采用专门的iSCSI网卡虽然可以减少系统性能开销,但会大大增加成本;

下面对每个分层进行简单介绍。

虽然I/O总线的速度和系统总线的带宽相比要低很多,但是好歹也是以G来计量的,而我们知道外围设备的速度,往往只有几百兆,甚至几十k而已,怎么协调工作呢?好比卖煎饼果子摊子不能直接戳到城市主干道上,怎么办?好办,在主干道边上开个2000平米的小吃城,把摊子都收进去好了。那么主机总线适配器的作用也就是这个,我们就是要把外设组织起来,连接到I/O总线上去!HBA就是指Host和I/O BUS直接的一个适配器,也好比一个水管工常说的“双通”。

       (3)使用数据网络进行存取,存取速度冗余受网络运行状况的影响。

SCSI层:根据客户端发出的请求建立SCSI CDB(命令描述块),并传给iSCSI层。同时接收来自iSCSI层的CDB,并向应用返回数据。

b、常见的HBA有哪些呢?

 

iSCSI层:对SCSI CDB进行封装,以便能够在基于TCP/IP协议的网络上进行传输,完成SCSI到TCP/IP的协议映射。这一层是iSCSI协议的核心层。本章也主要针对这一层的配置和管理进行介绍。

比如显卡,网卡,scsi卡,1394卡等等。我要拿出来说的就是FCHBA和ATA&IDE。我们通常说的什么Emulex的LP9002,什么Qlogic的QLA2340都是FCHBA卡,就是将Fibre Channel的设备和IO总线连接起来的适配器ATA也是一种适配器技术,我们PC主板上的ATA接口,就是一个磁盘适配器的对外接口,要强调的就是,ATA说的是适配器技术,IDE是说得存储外设技术,比如我们可以说IDE硬盘,IDE光驱,说ATA接口,但是说IDE接口,ATA硬盘就不时那么合适了,虽然很多情况下,大家都习惯把他们混在一起说。

五.  NAS与SAN的分析与比较

TCP/IP层:对IP报文进行路由和转发,并且提供端到端的透明可靠的传输。

描述HBA的时候,有几个主要的规范要说一下

  I/O是整个网络系统效率低下的瓶颈,最有效的解决办法就是将数据从通用的应用服务器中分离出来以简化存储管理。

iSCSI协议定义了在TCP/IP网络发送、接收数据块存储数据的规则和方式。先发送端将SCSI命令和数据封装到TCP/IP包中,然后通过IP网络转发,接收端收到TCP/IP包之后,将其还原为SCSI命令和数据并执行,执行完成后,将返回的SCSI命令和数据再封装到TCP/IP包中,之后再传回发送端。这样就完成了数据传输的整个过程。

> 一个承上,就是说,HBA和IOBUS怎么连,我们经常说的PCI接口卡,就是指这个HBA卡是要插在PCI BUS上的PCI slot上的,但是现在的计算机上,不仅仅只有PCI总线而已,大家碰到的时候留意。

  问题:

iSCSI的整个数据传输过程在用户看来是完全透明的,用户使用远端的存储设备就像使用本地的硬盘设备一样。不过,这只是理论状态,实际上iSCSI的数据传输速率并不能完全达到本地硬盘的数据传输速率,但差别并不明显。而且这种网络存储模式还有一个优点是安全性高,这对于数据集中存储的iSCSI来说显然非常重要。

>一个启下,就是说HBA要和外设怎么连,这样的规范就很多了。

 图片 8

>再说HBA本身,比如带宽,比如运行机制(protocol等),独立处理能力等等

 

Tips:有时候我们看到的一块卡,看到的实际是一个物理的卡,有的时候实际上是多个Adapter,好比一家机构,挂多个牌子,有的时候,一块卡有两条通道,好比一家公司,有两套人马。

       在上图可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。

4.DAS

  解决办法:

DAS(Direct Attached Storage—直接连接存储),是指将存储设备通过SCSI接口或光纤通道直接连接到服务器上。

 图片 9

直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。

 

直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。

  从图中可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。

无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。

 

5.NAS

 

NAS(Network Attached Storage—网络附加存储),即将存储设备通过标准的网络拓扑结构(例如以太网),连接到一群计算机上。NAS是部件级的存储方法,它的重点在于帮助工作组和部门级机构解决迅速增加存储容量的需求。需要共享文件的工程小组就是典型的例子。

使用存储网络的好处:

NAS没有解决与文件服务器相关的一个关键性问题,即备份过程中的带宽消耗。与将备份数据流从LAN中转移出去的存储区域网(SAN)不同,NAS仍使用网络进行备份和恢复。NAS 的一个缺点是它将存储事务由并行SCSI连接转移到了网络上。这就是说LAN除了必须处理正常的最终用户传输流外,还必须处理包括备份操作的存储磁盘请求。

  (1)统一性:形散神不散,在逻辑上是完全一体的。

随着IP网络技术的发展,网络接入存储(NAS)技术发生质的飞跃。早期80年代末到90年代初的10Mbps带宽,网络接入存储作为文件服务器存储,性能受带宽影响;后来快速以太网(100Mbps)、VLAN虚网、Trunk(Ethernet Channel) 以太网通道的出现,网络接入存储的读写性能得到改善;1998年千兆以太网(1000Mbps)的出现和投入商用,为网络接入存储(NAS)带来质的变化和市场广泛认可。由于网络接入存储采用TCP/IP网络进行数据交换,TCP/IP是IT业界的标准协议,不同厂商的产品(服务器、交换机、NAS存储)只要满足协议标准就能够实现互连互通,无兼容性的要求;并且2002年万兆以太网(10000Mbps)的出现和投入商用,存储网络带宽将大大提高NAS存储的性能。NAS需求旺盛已经成为事实。首先NAS几乎继承了磁盘列阵的所有优点,可以将设备通过标准的网络拓扑结构连接,摆脱了服务器和异构化构架的桎梏;其次,在企业数据量飞速膨胀中,SAN、大型磁带库、磁盘柜等产品虽然都是很好的存储解决方案,但他们那高贵的身份和复杂的操作是资金和技术实力有限的中小企业无论如何也不能接受的。NAS正是满足这种需求的产品,在解决足够的存储和扩展空间的同时,还提供极高的性价比。因此,无论是从适用性还是TCO的角度来说,NAS自然成为多数企业,尤其是大中小企业的最佳选择。

  (2)实现数据集中管理,因为它们才是企业真正的命脉。

6.SAN

  (3)容易扩充,即收缩性很强。

SAN(存储区域网络)采用光纤通道(Fibre Channel ,简称FC)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准(但各个厂商的光纤交换技术不完全相同,其服务器和SAN存储有兼容性的要求)。SAN解决方案是从基本功能剥离出存储功能,所以运行备份操作就无需考虑它们对网络总体性能的影响。

  (4)具有容错功能,整个网络无单点故障。

分析比较编辑

      

针对I/O是整个网络系统效率低下的瓶颈问题,专家们提出了许多种解决办法。其中抓住症结并经过实践检验为最有效的办法是:将数据从通用的应用服务器中分离出来以简化存储管理。

针对这一办法又有两种不同的实现方法,即NAS和SAN存储区域网络。

问题:

       NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。 
  SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。 

图片 10

NAS和SAN的根本不同点:

由上图可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。

       SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;

解决办法:

       NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。

图片 11

       即:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。

从上可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。

 

使用存储网络的好处:

  NAS是将目光集中在应用、用户和文件以及它们共享的数据上。

统一性:形散神不散,在逻辑上是完全一体的。

       SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。

实现数据集中管理,因为它们才是企业真正的命脉。

 

容易扩充,即收缩性很强。

 

具有容错功能,整个网络无单点故障。

 

专家们针对这一办法又采取了两种不同的实现手段,即NAS(Network Attached Storage)网络接入存储和SAN(Storage Area Networks)存储区域网络。

 

NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。

 

SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。

 

什么是NAS和SAN的根本不同点?

 

NAS和SAN最本质的不同就是文件管理系统在哪里。如图:

整理自网络

图片 12


由上图可以看出,SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。

Blog: 

NAS是将目光集中在应用、用户和文件以及它们共享的数据上。SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。将来从桌面系统到数据集中管理到存储设备的全面解决方案将是NAS加SAN。

网上资源: 

7.iSCSI

相关视频:

iSCSI技术最重要的贡献在于其对传统技术的继承和发展上:其一,SCSI(Small Computer Systems Interface,小型计算机系统接口)技术是被磁盘、磁带等设备广泛采用的存储标准,从1986年诞生起到现在仍然保持着良好的发展势头;其二,沿用TCP/IP协议,TCP/IP在网络方面是最通用、最成熟的协议,且IP网络的基础建设非常完善。这两点为iSCSI的无限扩展提供了夯实的基础。

iSCSI协议定义了在TCP/IP网络发送、接收block(数据块)级的存储数据的规则和方法。发送端将SCSI命令和数据封装到TCP/IP包中再通过网络转发,接收端收到TCP/IP包之后,将其还原为SCSI命令和数据并执行,完成之后将返回的SCSI命令和数据再封装到TCP/IP包中再传送回发送端。而整个过程在用户看来,使用远端的存储设备就象访问本地的SCSI设备一样简单。支持iSCSI技术的服务器和存储设备能够直接连接到现有的IP交换机和路由器上,因此iSCSI技术具有易于安装、成本低廉、不受地理限制、良好的互操作性、管理方便等优势。早在2001年上半年,IBM就推出了IP

Storage 200i,是市场上公认的第一款基于iSCSI协议的产品,这款产品的出现,对于身处信息爆炸时代却无法承担光纤通道SAN环境高成本的中小型用户来说,具有巨大的吸引力

8.基于iSCSI技术的IP SAN应用

图片 13

图一 基于iSCSI技术的IP SAN

图一为比较简单的IP SAN结构图。例子中使用千兆以太网交换机搭建网络环境,由iSCSI initiator如文件服务器、iSCSI target如磁盘阵列及磁带库组成。在这里引入两个概念:initiator和target。Initiator即典型的主机系统,发出读、写数据请求;target即磁盘阵列之类的存储资源,响应客户端的请求。这两个概念也就是上文提到的发送端及接受端。图中使用iSCSI HBA(Host Bus Adapter,主机总线适配卡)连接服务器和交换机,iSCSI HBA包括网卡的功能,还需要支持OSI网络协议堆栈以实现协议转换的功能。在IP SAN中还可以将基于iSCSI技术的磁带库直接连接到交换机上,通过存储管理软件实现简单、快速的数据备份。

由图一可以看出,基于iSCSI技术,利用现有的IP网络搭建IP SAN是极其简单的,且无须对现有IT员工进行培训即可掌握存储网络的管理。可能有用户会有疑问:基于1Gb的IP网络搭建IP SAN,性能到底如何?据某iSCSI技术开发人员说,数据传输速率在110-120MB/s左右,如果是全双工模式的交换机,可以达到200MB/s左右,相比光纤通道190MB/s(全双工360MB/s)的传输速率还是有差距,但光纤通道的高成本也是众所周知的。而在实际应用中,80-90MB/s的数据传输速率还是能够满足要求,因此iSCSI技术的应用环境提供了更好的性价比,从而会从传统SAN中分得一杯羹。

IP SAN FAQ - 鹤之淇水 - CSDN博客 

IP SAN FAQ - 鹤之淇水 - CSDN博客 

WWN、WWNN和WWPN - 鹤之淇水 - CSDN博客 

本文由澳门新萄京官方网站发布于服务器运维,转载请注明出处:增加服务器稳定性的12种技术,使用iSCSI服务部署

关键词: