Dell PowerEdge Systems Oracle Database on Microsoft Windows Server x64 Storage and Network Guide Version 4.
Notes, Cautions, and Warnings NOTE: A NOTE indicates important information that helps you make better use of your computer. CAUTION: A CAUTION indicates potential damage to hardware or loss of data if instructions are not followed. WARNING: A WARNING indicates a potential for property damage, personal ____________________ Information in this publication is subject to change without notice. © 2009–2010 Dell Inc. All rights reserved.
Contents 1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . Required Documentation for Deploying the Dell Oracle Database . . . . . . . . . . . . . . . . . . . 7 . . . . . . . . . . . 8 . . . . . . . . . . . . . . . . . . . . . . . . 9 Terminology Used in This Document Getting Help Dell Support . . . . . . . . . . . . . . . . . . . . . . Oracle Support 2 . . . . . . . . . . . . . . . . . . . . Fibre Channel Cluster Setup . . . . . . . . . .
5 iSCSI Cluster Setup for the Dell EqualLogic PS Series Storage Systems . . . . . . . . . . . . . . . . . . . Cabling Dell EqualLogic iSCSI Storage System . 6 . . . . 25 Configuring Network and Storage for Oracle RAC Database . . . . . . . . . . . . 29 Configuring the Public and Private Networks. . . . . . 29 Configuring and Teaming the Private Network . . . 30 . . . . . 31 . . . . . . . 33 . . . . . . . . . . 36 Configuring NIC Teaming for Your Private Network Adapters . . . . . . . .
Verifying the Storage Assignment to the Nodes . . . . 41 . . . . . 42 . . . . . . . . 43 Preparing the Disks for Oracle Clusterware, Database, and Backup . . . . . . . . . . . . . Enabling the Automount Option for the Shared Disks . . . . . . . . . . 7 Index Preparing the OCR and Voting Disks for Clusterware on Windows Server 2003 . . . . . . . 43 Preparing the OCR and Votingdisk for Clusterware on Windows Server 2008 . . . . . . .
Contents
Overview The Storage and Networking Guide for Oracle Database on Microsoft Windows applies to: • Oracle Database 10g R2 Enterprise Edition on Microsoft Windows Server 2003 R2 Standard or Enterprise x64 Edition or Windows Server 2008 SP2 Enterprise or Standard x64 Edition. • Oracle Database 10g R2 Standard Edition on Windows Server 2003 R2 SP2 Standard x64 Edition or Windows Server 2008 SP2 Standard x64 Edition.
Terminology Used in This Document This document uses the terms logical unit number (LUN) and virtual disk. These terms are synonymous and can be used interchangeably. The term LUN is commonly used in a Dell/EMC Fibre Channel storage system environment and virtual disk is commonly used in a Dell PowerVault SAS or iSCSI (Dell PowerVault MD3000 and Dell PowerVault MD3000i with Dell PowerVault MD1000 expansion) storage environment.
Getting Help This section provides information on contacting Dell or Oracle for whitepapers, supported configurations, training, technical support, and general information. Dell Support • For detailed information about using your system, see the documentation that came with your system components. • For whitepapers, Dell-supported configurations, and general information, see dell.com/oracle.
Overview
Fibre Channel Cluster Setup WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see dell.com/regulatory_compliance. After a Dell Managed Services representative completes the setup of your Fibre Channel cluster, verify the hardware connections and the hardware and software configurations as described in this section.
Table 2-1.
Cabling Your Dell/EMC Fibre Channel Storage You can configure your Oracle cluster storage system in a four-port storage area network (SAN) attached configuration, depending on your needs. See the following procedures for both configurations. Figure 2-2 illustrates the hardware connections used in setting up a SAN-attached Fibre Channel cluster. Figure 2-2.
To configure your Oracle cluster storage system in a four-port, SAN-attached configuration (see Figure 2-2): 1 Connect one optical cable from SP-A port 0 to Fibre Channel switch 0. 2 Connect one optical cable from SP-A port 1 to Fibre Channel switch 1. 3 Connect one optical cable from SP-B port 0 to Fibre Channel switch 1. 4 Connect one optical cable from SP-B port 1 to Fibre Channel switch 0. 5 Connect one optical cable from HBA 0 on node 1 to Fibre Channel switch 0.
SAS Cluster Setup for the Dell PowerVault MD3000 WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see dell.com/regulatory_compliance. This section provides information and procedures to configure your Dell PowerEdge systems and PowerVault MD3000 hardware and software to function in an Oracle Real Application Cluster (RAC) environment.
Table 3-1. SAS Cluster Hardware Interconnections Cluster Component Connections PowerEdge system node • One CAT 5e/6 cable from public NIC to the local area network (LAN). • One CAT 5e/6 cable from private Gigabit NIC to Gigabit Ethernet switch (private network). • One CAT 5e/6 cable from redundant private Gigabit NIC to redundant Gigabit Ethernet switch (private network). • Two SAS connections to a PowerVault MD3000 storage system node using a SAS 5/E. See “Cabling Your SAS Storage System” on page 17.
Cabling Your SAS Storage System SAS clusters can only be installed in a direct-attached cluster and are limited to two nodes only. To configure your nodes in a direct-attached configuration (see Figure 3-2): 1 Connect one SAS cable from a port of the SAS controller of node 1 to the In-0 port of RAID controller 0 in the PowerVault MD3000 RAID enclosure. 2 Connect one SAS cable from a port of the other SAS controller of node 1 to the In-0 port of RAID controller 1 in the PowerVault MD3000 RAID enclosure.
SAS Cluster Setup for the Dell PowerVault MD3000
iSCSI Cluster Setup for the Dell PowerVault MD3000i and PowerVault MD1000 Expansion Enclosures WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see dell.com/regulatory_compliance. This section provides information and procedures to configure your Dell PowerEdge systems and Dell PowerVault MD3000i hardware and software to function in an Oracle Real Application Cluster (RAC) environment.
Table 4-1. iSCSI Hardware Interconnections Cluster Component Connections One Dell PowerVault MD3000i storage system • Two CAT 5e/6 cables connected to LAN (one from each storage processor module) for the management interface. • Two CAT 5e/6 cables per storage processor for iSCSI interconnect. NOTE: For additional information on Dell PowerVault MD3000i system see your Dell PowerVault MD3000i Setup documentation.
Setting Up iSCSI Cluster With Dell PowerVault MD3000i Storage System and Dell PowerVault MD1000 Expansion Enclosures Cabling Your iSCSI Storage System Direct-attached iSCSI clusters are limited to two nodes only. Figure 4-1.
4 Connect one CAT 5e/6 cable from the other port (iSCSI HBA or NIC) of node 2 to the In-1 port of RAID controller 1 in the Dell PowerVault MD3000i storage enclosure. 5 Connect two SAS cables from the two MD3000 out ports to the two In ports of the first Dell PowerVault MD1000 expansion enclosure (Optional). 6 Connect two SAS cables from the two MD1000 out ports to the In-0 ports of the second Dell PowerVault MD1000 expansion enclosure (Optional).
To configure your nodes in a switched configuration (see Figure 4-2): 1 Connect one CAT 5e/6 cable from a port (iSCSI HBA or NIC) of node 1 to the port of network switch 1. 2 Connect one CAT 5e/6 cable from a port (iSCSI HBA or NIC) of node 1 to the port of network switch 2. 3 Connect one CAT 5e/6 cable from a port (iSCSI HBA or NIC) of node 2 to the port of network switch 1. 4 Connect one CAT 5e/6 cable from a port (iSCSI HBA or NIC) of node 2 to the port of network switch 2.
iSCSI Cluster Setup
iSCSI Cluster Setup for the Dell EqualLogic PS Series Storage Systems WARNING: Before you begin any of the procedures in this section, read the safety information that shipped with your system. For additional best practices information, see dell.com/regulatory_compliance. Cabling Dell EqualLogic iSCSI Storage System Host servers can be attached to the Dell EqualLogic iSCSI array through an IP storage area network (SAN) industry-standard Gigabit Ethernet switch.
Figure 5-1. Recommended Network Configuration Trunk Links Dell PowerConnect 54xx Gigabit Ethernet Switches for iSCSI Storage Area Network Rear View of Dell EqualLogic iSCSI Storage Array Operations Panel iSCSI Storage Area Network Power Supply and Cooling Module 1 Control Module 1 Control Module 0 Power Supply and Cooling Module 0 Figure 5-2 is an architecture overview of a sample Oracle RAC configuration with three PS5000XV arrays. Table 5-1.
Figure 5-2.
As illustrated in Figure 5-2, the group named oracle-group includes three PS5000XV members: • oracle-member01 • oracle-member02 • oraclemember03 When a member is initialized, it can be configured with RAID 10, RAID 5, or RAID 50. For more information on how to initialize an EqualLogic array, see the Dell EqualLogic User’s Guide. A PS Series storage group can be segregated into multiple tiers or pools. Tiered storage provides administrators with greater control over how disk resources are allocated.
Configuring Network and Storage for Oracle RAC Database This section provides information about: • Configuring the public and private networks. • Verifying the storage configuration. • Configuring the shared storage for Oracle Clusterware and the Oracle Database. NOTE: Oracle RAC requires an ordered list of procedures. To configure networking and storage in a minimal amount of time, perform the procedures listed in this chapter in order.
Configuring and Teaming the Private Network Before you deploy the cluster, assign a private IP address and host name to each cluster node. This procedure ensures that the nodes can communicate with each other through the private interface. Table 6-2 provides an example of a network configuration for a two-node cluster. NOTE: This example assumes all the IP addresses are registered in the hosts file of all cluster nodes. NOTE: The two bonded NIC ports for a private network should be on separate PCI buses.
Configuring NIC Teaming for Your Private Network Adapters NOTE: TCP Offload Engine (TOE) functionality of a TOE-capable NIC is not supported in this solution. To configure NIC teaming for your private network adapters: 1 On node 1, identify two network adapters that are used for NIC teaming. 2 Connect an ethernet cable from each selected network adapter to the private network switch. 3 If node 1 is configured with Broadcom NICs, go to step 4.
4 If node 1 is configured with Broadcom NICs, configure NIC teaming by performing the following steps. If not go to step 5. a Click Start→ Programs→ Broadcom→ Broadcom Advanced Control Suite 3. The Broadcom Advanced Control Suite 3 window is displayed. b Highlight Team Management, and click Teams and select Create a Team. The Broadcom Teaming Wizard window is displayed. c Click Next. d In the Enter the name for the team field, type Private and click Next.
Configuring the IP Addresses for Your Public and Private Network Adapters NOTE: The TOE functionality of TOE-capable NIC is not supported in this solution. To configure the IP addresses for your public and private network adapters: 1 Update the adapter’s network interface name, if required. Otherwise, go to step 3. a On node 1, click Start and navigate to Settings→ Control Panel→ Network Connections.
f On the Properties window, click Close. g Repeat step a through step f on the Private NIC team. NOTE: Private NIC team does not require a default gateway address and DNS server entry. 3 Ensure that the public and private network adapters appear in the appropriate order for access by network services. a On the Windows desktop, click Start→ Settings→ Control Panel→ Network Connections. b On the Network Connections window, click Advanced and select Advanced Settings.
Table 6-3. IP Address and Node Names IP Address Node Name 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.202 rac2-vip NOTE: Registering the private IP addresses with the DNS server is not required because the private network IP addresses are not accessible from the public network. 5 Repeat step 1 to step 4 on the remaining nodes. 6 Ensure that the cluster nodes can communicate with the public and private networks.
Installing the Host-Based Software Required for Storage If you are installing Dell/EMC Fibre Channel Storage, see the Dell/EMC documentation that came with your system to install the EMC Naviagent software. If you are installing a Dell PowerVault storage, see the Dell PowerVault documentation that came with your system to install the Modular Disk Storage Manager (MDSM) software from the Dell PowerVault Resource media.
Installing Multi-Path Driver Software for PowerVault MD3000 or PowerVault MD3000i In the case of a SAS or iSCSI (PowerVault MD3000 or PowerVault MD3000i storage system) cluster, the Multi-Path software should already be installed on your hosts as instructed in the section "Installing the Host-Based Software Required for Storage" on page 36.
Configuring Your EqualLogic iSCSI Storage Creating Volumes Before data can be stored, the PS5000XV physical disks must be configured into usable components, known as volumes. A volume represents a portion of the storage pool, with a specific size, access controls, and other attributes. A volume can be spread across multiple disks and group members and is seen on the network as an iSCSI target. Volumes are assigned to a pool and can be easily moved between pools, with no impact on data availability.
Table 6-4 shows a sample volume configuration. Create volumes in PS5000XV array and create an access list to allow all host iSCSI network interfaces to access the volumes. Configuring iSCSI Networks It is recommended that the host network interfaces for iSCSI traffic are configured to use Flow Control and Jumbo frame for optimal performance. To set Flow Control and Jumbo frame: 1 Select Start→ Settings→ Network Connections. 2 Highlight the iSCSI network interface, and right click Properties.
6 On the Ready to install the components window, click Install. The Installation Status window and the Software Update Installation Wizard window is displayed. 7 On the Installation Complete window, click Finish. 8 On the System Restart Required window, select Yes, I want to restart my computer now, and click OK. 9 When the server restarts, a Remote Setup Wizard window is displayed. 10 Select Configure MPIO settings for this computer, then click Next.
d Select the CHAP logon information check box. e Enter the CHAP user name defined in EqualLogic storage, by the User name box. f Enter the CHAP password defined in EqualLogic storage, by the Target secret box. g Click OK. 7 On the Log On to Target window, click OK. 8 On the iSCSI Initiator Properties window Targets tab, the status of the logged on volume should be Connected. 9 Repeat step 3 to step 8 to log on to the same volume for every other iSCSI initiator IP addresses.
c In the Select Disks to Convert window, clear the disk(s) that you selected in step b and click Next. NOTE: This procedure ensures that your disks are configured as basic disks. d Click Finish. 6 On the Disk Management window, verify if four disks appear. The disks should be similar in size to each other and to the LUNs/virtual disks that are assigned to the nodes in the storage system. 7 Repeat step 1 to step 6 on the remaining nodes.
Enabling the Automount Option for the Shared Disks To enable the Automount option for the shared disks: 1 On node 1, click Start and select Run. 2 In the Run field, type cmd and click OK. 3 At the command prompt, type diskpart and press . 4 At the DISKPART command prompt, type automount enable and press . The following message is displayed: Automatic mounting of new volumes enabled. 5 At the DISKPART command prompt, type exit and press . 6 Close the command prompt.
8 Repeat step 3 to step 7 on all shared disks that are assigned to the cluster nodes. 9 Create a logical drive for the OCR disk. a On the partition area of the disk identified for OCR and voting disk (2 GB LUN/virtual disk), right-click the free space and select New Logical Drive. The Welcome to the New Partition wizard is displayed. b Click Next. c On the Select Partition Type window, select Logical drive and click Next.
f In the Format Partition window, select Do not format this partition and click Next. g Click Finish. h Repeat step a to step g to create two additional voting disk partitions. NOTE: If you are using Redundant Voting Disk and OCR, repeat the steps outlined in step 9 and step 10 for the redundant Voting Disk and OCR.
Preparing the Database Disk and Flash Recovery Area for Database Storage With OCFS NOTE: When using Automatic Storage Management (ASM), the ASM data disk group should be larger than your database (multiple LUNs) and the ASM Flash Recovery Area disk group should be at least twice the size of your data disk group.
Preparing the Database Disk and Flash Recovery Area for Database Storage With ASM NOTE: If you are creating the logical drives that are used to create the OCFS storage disk, ignore the following steps and follow the procedures in "Preparing the Database Disk and Flash Recovery Area for Database Storage With OCFS" on page 46. To create logical drives that are used to create ASM disk storage: 1 Create one logical drive for the Database. a Locate the disk that is assigned for the Oracle database.
Removing the Assigned Drive Letters To remove the assigned drive letters: 1 On the Windows desktop for each node, right-click My Computer and select Manage. 2 On the Computer Management window, expand Storage and click Disk Management. 3 If you find any drive letters assigned to the drives that you created in "Preparing the OCR and Voting Disks for Clusterware on Windows Server 2003" on page 43, perform the following steps: 48 a Right-click the logical drive and select Change Drive Letter and Paths.
Index A ASM, 46 B EqualLogic Terms Group, 8 Member, 8 Pool, 8 Volume, 8 bonded pair, 30 F C cable CAT 5e, 12 CAT 6, 12 SAS cable, 17 D Dell/EMC Fibre Channel, 12 disks Data and backup disks, 42 Oracle Cluster Registry disk, 42 Redundant Voting Disk, 45 Voting disk, 42 DNS, 29 E Flow Control, 39 G Gigabit Ethernet switch, 12 H Help Dell Support, 9 Oracle Support, 9 I IP address public IP address, 29 virtual IP address, 29 iSCSI HBA, 21 EMC PowerPath, 36 Index 49
J S Jumbo frame, 39 SAN, 13 Jumbo Packet, 39 SAS clusters, 17 SDL, 37 M Modular Disk Storage Manager, 37 O TCP Offload Engine, 31 V OCFS, 46 P PowerConnect switch, 25 50 T Index Virtual internet protocol, 35
Dell PowerEdge 系统 "Oracle Database on Microsoft Windows Server x64" (Microsoft Windows Server x64 上的 Oracle Database) 存储和网络指南 4.
注、小心和警告 注:“注”表示可以帮助您更好地使用计算机的重要信息。 小心:“小心”表示如果不遵循说明,就有可能损坏硬件或导致数据丢失。 警告:“警告”表示可能会造成财产损失、人身伤害甚至死亡。 ____________________ 本出版物中的信息如有更改,恕不另行通知。 © 2009 – 2010 Dell Inc. 版权所有,翻印必究。 未经 Dell Inc. 书面许可,严禁以任何形式复制这些材料。 本文中使用的商标:Dell™、 DELL 徽标、 EqualLogic™、 PowerEdge™ 和 PowerVault™ 是 Dell Inc.
目录 1 概览 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 部署 Dell Oracle Database 所需的说明文件 . . . . . 57 . . . . . . . . . . . . . . . 58 . . . . . . . . . . . . . . . . . . . . . . . . 59 本说明文件中使用的术语 获得帮助 . Dell 支持 . . . . . . . . . . . . . . . . . . . . . . Oracle 支持 . 2 . . . . . . . . . . . . . . . . . . . . 光纤信道群集设置 . . . . . . . . . . . . . . . . . Dell/EMC 光纤信道存储布线 . 3 . . . . . . . . . . . . . Dell PowerVault MD3000 的 SAS 群集设置 . . . . . . . . . . . . . . . . . . .
5 Dell EqualLogic PS Series 存储系统的 iSCSI 群集设置 . . . . . . . . . . Dell EqualLogic iSCSI 存储系统的布线 6 . . . . . . . . 75 . . . . . . . . . . . 79 . . . . . . . . . . . . . . . . . 79 配置 Oracle RAC Database 的网络和存储 . . . . . . . . . . 配置公用和专用网络 . 配置并组队专用网络 . . . . . . . . . . . . . . . 为专用网络适配器配置 NIC 组队 80 . . . . . . . . . 83 . . . . . . . . . . . 86 . . . . . . . . . . . . . . . . 86 安装存储所需的基于主机的软件 为存储安装多路径软件. 为 Dell/EMC 系统安装 EMC PowerPath .
为 Oracle 群集件、数据库和备份准备磁盘 为共享磁盘启用自动安装选项 . . . . . . 92 . . . . . . . . . 92 为 Windows 2003 上的群集件准备 OCR 和投票磁盘 . . . . . . . . . . . . . . . . . . 为 Windows Server 2008 上的群集件准备 OCR 和投票磁盘 . . . . . . . . . . . . . . . . . . 为使用 OCFS 的数据库存储准备数据库磁 盘和快擦写恢复区域 . . . . . . . . . . . . . . . 为使用 ASM 的数据库存储准备数据库磁盘 和快擦写恢复区域 . . . . . . . . . . . . . . 7 索引 . 93 95 96 . . 97 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
目录
概览 Storage and Networking Guide for Oracle Database on Microsoft Windows (Microsoft Windows 上的 Oracle Database:存储和网络指南)适用于: • Microsoft Windows Server 2003 R2 x64 标准版或企业版或 Windows Server 2008 SP2 x64 企业版或标准版上的 Oracle Database 10g R2 企业 版。 • Windows Server 2003 R2 SP2 x64 标准版或 Windows Server 2008 SP2 x64 标准版上的 Oracle Database 10g R2 标准版。 部署 Dell Oracle Database 所需的说明文件 安装 Dell|Oracle Database 所需的说明文件包括: • Oracle Database on Microsoft Windows Server x64 Operating System and Hardware Installation Guide(Mic
本说明文件中使用的术语 本说明文件中使用了逻辑单元号码 (LUN) 和虚拟磁盘两个术语。这些术语 是同义词并可互换使用。术语 LUN 通常在 Dell/EMC 光纤信道存储系统环 境中使用,而虚拟磁盘通常在 Dell PowerVault SAS 或 iSCSI(Dell PowerVault MD3000 和带 Dell PowerVault MD1000 扩充的 Dell PowerVault MD3000i )存储环境中使用。 Dell EqualLogic PS Series 存储阵列包括存储虚拟化技术。为了更好地理解这 些阵列的运行方式,熟悉一些用于描述这些阵列及其功能的术语将非常有 用: 58 • 成员 — 单个 PS Series 阵列。 • 组 — 可以进行集中管理的一个或多个成员的集合。主机服务器通过单 组 IP 地址访问数据。 • 池 — 可由来自一个或多个成员的磁盘组成的 RAID。 • 卷 — LUN 或虚拟磁盘,表示池容量的子集。 概览
获得帮助 本节介绍有关如何联系 Dell 或 Oracle 以获取白皮书、支持的配置、培训、 技术支持和一般信息的信息。 Dell 支持 • 有关使用系统的详情,请参阅随系统组件附带的说明文件。 • 有关白皮书、Dell 支持的配置和一般信息,请访问 dell.com/oracle。 • 要获得对硬件和操作系统软件的 Dell 技术支持以及下载最新的系统更 新,请访问 support.dell.
概览
光纤信道群集设置 警告:开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。有 关更多最佳实践信息,请访问 dell.com/regulatory_compliance。 Dell 管理的服务代表完成光纤信道群集的设置后,请验证是否按照本节中的 说明进行硬件连接以及硬件和软件配置。 图 2-1 和图 2-2 显示了群集所需连 接的概览,表 2-1 概述了群集连接。 图 2-1.
表 2-1.
Dell/EMC 光纤信道存储布线 您可以在具有四个端口的存储区域网络 (SAN) 连接配置中配置 Oracle 群 集存储系统,具体视您的需要而定。有关这两种配置的信息,请参阅以下 步骤。 图 2-2 显示了设置 SAN 连接光纤信道群集时使用的硬件连接。 图 2-2.
要在具有四个端口的 SAN 连接配置中配置 Oracle 群集存储系统(请参阅 图 2-2): 1 使用一根光缆从 SP-A 端口 0 连接至光纤信道交换机 0。 2 使用一根光缆从 SP-A 端口 1 连接至光纤信道交换机 1。 3 使用一根光缆从 SP-B 端口 0 连接至光纤信道交换机 1。 4 使用一根光缆从 SP-B 端口 1 连接至光纤信道交换机 0。 5 使用一根光缆从节点 1 上的 HBA 0 连接至光纤信道交换机 0。 6 使用一根光缆从节点 1 上的 HBA 1 连接至光纤信道交换机 1。 7 使用一根光缆从每个附加节点上的 HBA 0 连接至光纤信道交换机 0。 8 使用一根光缆从每个附加节点上的 HBA 1 连接至光纤信道交换机 1。 64 光纤信道群集设置
Dell PowerVault MD3000 的 SAS 群 集设置 警告:开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。有 关更多最佳实践信息,请访问 dell.com/regulatory_compliance。 本节提供有关配置 Dell PowerEdge 系统和 PowerVault MD3000 硬件和软 件,使其能在 Oracle Real Application Cluster (RAC) 环境中正常工作的信息 和步骤。 按照本节的图 3-1、表 3-1 和表 3-2 中的说明,验证硬件连接以及硬件和软 件配置。 图 3-1.
表 3-1.
SAS 存储系统布线 SAS 群集只能安装在直接连接的群集中并且仅限于两个节点。 在直接连接的配置中配置节点(请参阅图 3-2): 1 使用一根 SAS 电缆从节点 1 的 SAS 控制器端口连接至 PowerVault MD3000 RAID 盘柜中的 RAID 控制器 0 的 In-0 端口。 2 使用一根 SAS 电缆从节点 1 的 SAS 控制器端口连接至 PowerVault MD3000 RAID 盘柜中的 RAID 控制器 1 的 In-0 端口。 3 使用一根 SAS 电缆从节点 2 的 SAS 控制器端口连接至 PowerVault MD3000 RAID 盘柜中的 RAID 控制器 0 的 In-1 端口。 4 使用一根 SAS 电缆从节点 2 的 SAS 控制器端口连接至 PowerVault MD3000 RAID 盘柜中的 RAID 控制器 1 的 In-1 端口。 图 3-2.
Dell PowerVault MD3000 的 SAS 群集设置
Dell PowerVault MD3000i 和 PowerVault MD1000 扩展盘柜的 iSCSI 群集设置 警告:开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。 有关更多最佳实践信息,请访问 dell.com/regulatory_compliance。 本节提供有关配置 Dell PowerEdge 系统以及 Dell PowerVault MD3000i 硬件 和软件,使其能在 Oracle Real Application Cluster (RAC) 环境中正常工作的 信息和步骤。 使用 Dell PowerVault MD3000i 支持值表(可从 support.dell.com 获取)中包 含的“支持的配置”图验证硬件连接以及硬件和软件配置。 表 4-1.
安装带有 Dell PowerVault MD3000i 存储系统和 Dell PowerVault MD1000 扩展盘柜的 iSCSI 群集 iSCSI 存储系统布线 直接连接的 iSCSI 群集仅限于两个节点。 图 4-1.
在直接连接的配置中配置节点(请参阅图 4-1): 1 使用一根 CAT 5e/6 电缆从节点 1 的一个端口 (iSCSI HBA 或 NIC)连 接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 0 的 In-0 端口。 2 使用一根 CAT 5e/6 电缆从节点 1 的另一个端口 (iSCSI HBA 或 NIC) 连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 1 的 In-0 端口。 3 使用一根 CAT 5e/6 电缆从节点 2 的一个端口 (iSCSI HBA 或 NIC)连 接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 0 的 In-1 端口。 4 使用一根 CAT 5e/6 电缆从节点 2 的另一个端口 (iSCSI HBA 或 NIC) 连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 1 的 In-1 端口。 5 使用两根 SAS 电缆从两个 MD3000 输出端口连接至第一个 Dell PowerVault MD1000 扩展盘
图 4-2.
7 使用一根 CAT 5e/6 电缆从交换机 2 的一个端口连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 0 的 In-1 端口。 8 使用一根 CAT 5e/6 电缆从交换机 2 的另一个端口连接至 Dell PowerVault MD3000i 存储设备盘柜中 RAID 控制器 1 的 In-1 端口。 9 使用两根 SAS 电缆从两个 MD3000i 输出端口连接至第一个 Dell PowerVault MD1000 扩展盘柜的两个 In 端口 (可选)。 10 使用两根 SAS 电缆从两个 MD1000 输出端口连接至第二个 Dell PowerVault MD1000 扩展盘柜的 In-0 端口 (可选)。 注:有关配置 Dell PowerVault MD1000 扩展盘柜的信息,请参阅 Dell PowerVault MD3000 存储系统说明文件(可从 support.dell.com/manuals 获取)。 注:请参阅 dell.
iSCSI 群集设置
Dell EqualLogic PS Series 存储系 统的 iSCSI 群集设置 警告:开始执行本节中的任何步骤之前,请阅读系统附带的安全信息。 有关更多最佳实践信息,请访问 dell.com/regulatory_compliance。 Dell EqualLogic iSCSI 存储系统的布线 主机服务器可通过 IP 存储区域网络 (SAN) 行业标准千兆位以太网交换机连 接至 Dell EqualLogic iSCSI 阵列。 图 5-1 显示了双控制模块 PS5000XV 阵列的推荐网络配置。该配置包括两个 Dell PowerConnect 54xx 千兆位以太网交换机,以提供最高的网络可用性和 最大的网络带宽。 建议使用两个千兆位以太网交换机,因为在单个以太网交换机环境中,如果 交换机出现故障,那么在实际更换故障交换机和恢复配置之前,所有主机都 将无法访问存储设备。在这种配置中,应有多个带有链路聚合功能的端口, 提供交换机间(或主干)连接。.
图 5-1. 推荐的网络配置 主干链路 适用于 iSCSI 存储区域网络 的 Dell PowerConnect 54xx 千兆位以太网交换机 Dell EqualLogic iSCSI 存储阵列的 后视图 操作面板 iSCSI 存储区域网络 电源设备和冷却模 块1 控制模块 1 控制模块 0 电源设备和冷却模 块0 图 5-2 概述了使用三个 PS5000XV 阵列的 Oracle RAC 配置(示例)的体系 结构。 表 5-1.
图 5-2.
如图 5-2 所示,名为 oracle-group 的组包括三个 PS5000XV 成员: • oracle-member01 • oracle-member02 • oraclemember03 初始化其中某个成员后,可以为其配置 RAID 10、RAID 5 或 RAID 50。有 关如何初始化 EqualLogic 阵列的详细信息,请参阅 Dell EqualLogic User's Guide(Dell EqualLogic 用户指南)。 一个 PS Series 存储组可以分到多个层或池中。分级存储可使管理员更好地 控制磁盘资源的分配方式。每次可将一个成员仅分配到一个池。将成员分配 到池以及在不同池之间移动成员很容易,而且不会影响数据的可用性。根据 不同标准(如磁盘类型或速度、RAID 级别和应用类型),可对池进行组 织。 在图 5-2 中,池按成员 RAID 级别组织: 78 • 一个名称为 RAID-10 的池由 RAID 10 成员组成。 • 一个名称为 RAID-5 的池由 RAID 5 成员组成。 Dell EqualLogic PS Series 存储系统的 iSCS
配置 Oracle RAC Database 的网络 和存储 本节提供以下相关信息: • 配置公用和专用网络。 • 验证存储配置。 • 为 Oracle 群集件和 Oracle Database 配置共享存储设备。 注:Oracle RAC 要求按顺序执行一系列程序。要在最短的时间内配置网络和 存储设备,请按顺序执行本章中列出的程序。 配置公用和专用网络 注:每个节点都需要一个唯一的公用和专用网际协议 (IP) 地址,以及一个附 加公用 IP 地址,该附加公用 IP 地址用作客户端连接和连接故障转移的虚拟 IP 地址。虚拟 IP 地址必须与公用 IP 地址属于同一个子网。所有公用 IP 地 址,包括虚拟 IP 地址,都应该向域名服务 (DNS) 注册。如果 DNS 服务器不 可用,则必须在所有群集节点上的主机文件中注册 IP 地址。 根据可用 NIC 端口的数目,如表 6-1 所示配置公用和专用接口。 表 6-1.
配置并组队专用网络 在部署群集之前,为每个群集节点分配一个专用 IP 地址和主机名称。此程 序可确保节点之间可以通过专用接口相互通信。 表 6-2 提供了双节点群集的网络配置示例。 注:本示例假定所有 IP 地址均已在所有群集节点的主机文件中注册。 注:专用网络的两个绑定的 NIC 端口应位于独立的 PCI 总线上。例如,一个 绑定对可由一个机载 NIC 和一个添加式 NIC 卡组成。 表 6-2. 双节点群集的网络配置示例 主机名 类型 IP 地址 注册位置 rac1 公用 155.16.170.1 %SystemRoot%\system32\drivers\etc\hosts rac2 公用 155.16.170.2 %SystemRoot%\system32\drivers\etc\hosts rac1-vip 虚拟 155.16.170.201 %SystemRoot%\system32\drivers\etc\hosts rac2-vip 虚拟 155.16.170.202 %SystemRoot%\system32\drivers\etc\hosts rac
e 单击 Teaming (组队)选项卡。 f 选择 Team with other Adapters (与其它适配器组队),然后选择 New Team (新建组队)。 g 指定 NIC 组队的名称,然后单击 Next (下一步)。 h 在 Select the adapters to include in this team (选择要包括在此组 队中的适配器)框中,选择确定用于 NIC 组队的其余网络适配 器,然后单击 Next (下一步)。 i 在 Select a team mode list (选择组队模式列表)框中,选择 Adaptive Load Balancing (自适应负载均衡)。 j 单击 Finish (完成)以完成组队。 k 在 Team Properties (组队属性)窗口中,单击 OK (确定)。 l 在 Intel NIC's Properties (NIC 的属性)窗口中,单击 OK (确 定)。 m 关闭 Computer Management (计算机管理)窗口。 4 如果使用 Broadcom NIC 配置节点 1,请通过执行以下步骤
f 在 Assigning Team Members (分配组队成员)窗口的 Available Adapters (可用适配器)框中,选择确定用于 NIC 组队的网络适 配器,然后将其添加到 Team Members (组队成员)框中。 注:将集成的 Broadcom NIC 配置到组队中时,PowerEdge 6850 系统上 将显示以下警告信息: Including this adapter in a team will disrupt the system management features. Click Yes to proceed.
为公用网络适配器和专用网络适配器配置 IP 地址 注:本解决方案不支持 NIC(支持 TOE)的 TOE 功能。 为公用网络适配器和专用网络适配器配置 IP 地址: 1 更新适配器的网络接口名称 (如果需要)。否则,请转至步骤 3。 a 在节点 1 上,单击 Start (开始),然后浏览至 Settings (设置) → Control Panel (控制面板) → Network Connections (网络连 接)。 b 在 Network Connections (网络连接)窗口中,右键单击要重命名 的公用网络适配器,然后选择 Rename (重命名)。 注:在群集节点上配置网络适配器时,请对所有群集节点上的公用适 配器和专用适配器使用相同的名称。否则,Oracle Database 安装程序将 生成错误,从而使您无法完成安装过程。 c 将公用适配器名称重命名为 Public,然后按 键。 d 右键单击要重命名的专用 NIC 组队,然后选择 Rename (重命 名)。 e 将专用 NIC 组队重命名为 Private,然后按 键。 2 配置 I
f 在 Properties (属性)窗口中,单击 Close (关闭)。 g 在专用 NIC 组队上重复执行步骤 a 至步骤 f。 注:专用 NIC 组队不需要输入默认网关地址和 DNS 服务器条目。 3 确保公用和专用网络适配器以适当的顺序显示,以便通过网络服务进 行访问。 a 在 Windows 桌面上,单击 Start (开始) → Settings (设置) → Control Panel (控制面板) → Network Connections (网络连 接)。 b 在 Network Connections (网络连接)窗口中,单击 Advanced (高级),然后选择 Advanced Settings (高级设置)。 c 选择 Adapter and Bindings (适配器和捆绑)选项卡。 d 确保网络适配器按以下顺序排列: i. 公用 ii. 专用 iii.
表 6-3. IP 地址和节点名称 IP 地址 节点名称 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.
安装存储所需的基于主机的软件 如果您要安装 Dell/EMC 光纤信道存储,请参阅系统随附的 Dell/EMC 说明 文件,安装 EMC Naviagent 软件。 如果您要安装 Dell PowerVault 存储设备,请参阅系统随附的 Dell PowerVault 说明文件,安装 Dell PowerVault Resource 介质中的 Modular Disk Storage Manager (MDSM) 软件。 注:Dell PowerVault MD3000i 存储系统需要 Microsoft iSCSI 软件启动程序。 Microsoft iSCSI 软件启动程序可从 microsoft.
验证多路径驱动程序功能 要验证多路径驱动程序功能: 1 右键单击 My Computer (我的电脑),然后选择 Manage (管理)。 2 展开 Storage (存储),然后单击 Disk Management (磁盘管理)。 对于存储中分配的每个 LUN,都将显示一个磁盘。 3 确保每个 LUN 均配置为 Basic (基本)磁盘。 4 在其余的节点上重复执行步骤 1 至步骤 3。 验证并升级固件 • 使用安装在主机服务器上的 MDSM 软件搜索主机服务器的直接连接存 储设备。 • 验证以下存储组件的固件是否满足最低所需版本。请参阅 Solutions Deliverable List(可提供的解决方案列表,SDL)了解固件版本要求。 • PowerVault MD3000i 存储系统固件 • MD1000 扩展盘柜固件 配置 EqualLogic iSCSI 存储设备 创建卷 必须将 PS5000XV 物理磁盘配置为可用组件(即卷)后才能存储数据。卷代 表存储池的一部分,具有特定大小、访问控制和其它属性。卷可以跨越多个 磁盘和组成员,在网络上显示为 iSCSI 目标。卷可以分配给池且可以
表 6-4.
7 在 Performance Options (性能选项)窗口中,高亮度显示 Flow Control (流控制),然后将其值设置为 Rx & Tx Enabled (启用 Rx 和 Tx)。 8 对于用于 iSCSI 通信的所有其它网络接口,重复步骤 2 至步骤 7。 配置主机对卷的访问 安装并配置 Dell EqualLogic 主机集成工具 (HIT) 套件 要安装并配置 Dell EqualLogic 主机集成工具 (HIT) 套件: 1 将最新的 HIT 工具套件下载到您的数据库服务器上。 2 双击 Setup64.
配置 Microsoft iSCSI 启动程序 要配置 Microsoft iSCSI 启动程序: 1 双击桌面上的 Microsoft iSCSI Initiator (Microsoft iSCSI 启动程序) 图标。 2 在 iSCSI Initiator Properties (iSCSI 启动程序属性)窗口的 Discovery (搜索)选项卡中, EqualLogic 组地址的 IP 地址应已由 HIT 工具套件 填充。 3 在 iSCSI Initiator Properties (iSCSI 启动程序属性)窗口的 Targets (目标)选项卡中,单击为 Oracle Database 创建的一个卷。单击 Log On (登录)。 4 在 Log On to Target (登录到目标设备)窗口中,选中 Automatically restore this connection when the system boots (系统引导 时自动恢复此连接)和 Enable multi-path (启用多路径)两个框。 5 单击 Advanced (高级)。 6 在 Advanced Setting
9 针对其它各 iSCSI 启动程序 IP 地址,均重复执行步骤 3 至步骤 8 以登 录到相同卷。 10 重复执行步骤 3 至步骤 9 登录到为数据库创建的所有其它卷。 11 在群集中的所有其它主机上重复执行步骤 1 至步骤 10。 验证节点的存储分配 要验证节点的存储分配: 1 在 Windows 桌面上,右键单击 My Computer (我的电脑),然后选择 Manage (管理)。 2 在 Computer Management (计算机管理)窗口中,选择 Device Manager (设备管理器)。 3 展开 Disk drives (磁盘驱动器)。 4 在 Disk drives (磁盘驱动器)下,确保为存储设备中分配的每个 LUN 或虚拟磁盘显示有四个小型计算机系统接口 (SCSI) 磁盘设备。 5 展开 Storage (存储),然后单击 Disk Management (磁盘管理)。 如果显示 Welcome to the Initialize and Convert Disk Wizard (欢迎使 用初始化和转换磁盘向导),请执行步骤 a 至步骤 d。否则,请转至步 骤 6。 a
为 Oracle 群集件、数据库和备份准备磁盘 本节介绍为以下磁盘创建逻辑驱动器的相关信息: • Oracle 群集注册表磁盘 (OCR) — 包含群集配置信息 • 投票磁盘 — 当专用网络或连接的存储设备无法用于一个或多个节点 时,投票磁盘提供群集节点间的仲裁 • 数据和备份磁盘 — 为创建数据库(数据磁盘)和保存备份和日志数据 (备份磁盘)提供存储区 在本说明文件中所述的群集配置过程中,您可以在共享存储上创建分区。在 创建分区时,确保群集节点可以检测到在连接的存储系统中创建的 LUN 或 逻辑磁盘。 要为 Oracle 群集件准备磁盘,应确定 OCR、投票、数据和快擦写恢复区域 磁盘。确定适当的磁盘后,在节点 1 上执行以下步骤: 1 为共享磁盘启用自动安装选项。 2 为 Windows Server 2003 上的群集件准备 OCR 和投票磁盘。 3 为 Windows Server 2008 上的群集件准备 OCR 和投票磁盘。 4 为使用 OCFS 的数据库存储准备数据库磁盘和快擦写恢复区域。 5 为使用 ASM 的数据库存储准备数据库磁盘和快擦写恢复区域。 为共享磁盘启用自动安装选项
为 Windows 2003 上的群集件准备 OCR 和投票磁盘 要为 Windows Server 2003 上的群集件准备 OCR 和投票磁盘: 1 在 Windows 桌面上,右键单击 My Computer (我的电脑),然后选择 Manage (管理)。 2 展开 Storage (存储),然后单击 Disk Management (磁盘管理)。 在第 87 页上的 “验证多路径驱动程序功能”中初始化的存储磁盘将显 示为 Unallocated (未分配)。 3 右键单击分配给群集节点的第一个共享磁盘的分区区域,然后选择 New Partition (新建分区)。 随即显示 Welcome to the New Partition (欢迎使用新建分区)向导。 4 单击 Next (下一步)。 5 在 Select Partition Type (选择分区类型)窗口中,选择 Extended partition (扩展分区),然后单击 Next (下一步)。 6 在 Specify Partition Size (指定分区大小)窗口中,接受默认分区大 小,然后单击 Next (下一步)。 7 单击 F
e 在 Assign Drive Letter or Path (分配驱动器号或路径)窗口中,选 择 Do not assign a drive letter or drive path (不分配驱动器号或驱 动器路径),然后单击 Next (下一步)。 f 在 Format Partition (格式化分区)窗口中,选择 Do not format this partition (不格式化此分区),然后单击 Next (下一步)。 g 单击 Finish (完成)。 h 重复执行步骤 a 至步骤 g 以创建另一个 OCR 磁盘。 10 为投票磁盘创建逻辑驱动器。 a 在确定用于 OCR 和投票磁盘 (2 GB LUN/ 虚拟磁盘)的磁盘分区 区域上,右键单击可用空间,然后选择 New Logical Drive (新建 逻辑驱动器)。 随即显示 Welcome to the New Partition(欢迎使用新建分区)向 导。 b 单击 Next (下一步)。 c 在 Select Partition Type (选择分区类型)窗口中,选择 Logical drive (逻辑驱动
为 Windows Server 2008 上的群集件准备 OCR 和投票磁盘 注:创建扩展分区以及创建逻辑驱动器的步骤与 Windows Server 2003 的步 骤一致,但是,对于 Windows Server 2008,不能再从磁盘管理 GUI 中执行这 些步骤。 要创建扩展分区和逻辑驱动器: 1 Start (开始) → Run (运行),然后键入 cmd 并单击 Enter 以打开命 令提示符窗口。 2 在命令提示符中键入 diskpart 以打开 diskpart 界面。 3 输入 list disk,随后会显示下列表格: DISKPART> list disk Disk ### Status Size Free Disk 0 Online 37 GB Disk 1 Online 2048 MB 2014 MB Disk 2 Online 100 GB 100 GB Disk 3 Online 200 GB 200 GB 0 MB 4 输入 select disk [disk #] (目标磁盘的磁盘编号)。 注:以下步骤介绍如何为 MBR 磁盘创建分区和逻辑磁
为使用 OCFS 的数据库存储准备数据库磁盘和快擦写恢复区域 注:当使用自动存储管理 (ASM) 时,ASM 数据磁盘组应大于数据库(多个 LUN),ASM 快擦写恢复区域磁盘组应至少为数据磁盘组大小的两倍。 注:如果您要创建用来创建 ASM 存储磁盘的逻辑驱动器,请忽略以下步骤 并参阅第 96 页上的“为使用 OCFS 的数据库存储准备数据库磁盘和快擦写恢 复区域”。 要创建用来创建 Oracle 群集文件系统 (OCFS) 存储磁盘的逻辑驱动器: 1 在节点 1 上,为数据库创建一个逻辑驱动器。 a 找到分配给 Oracle Database 的磁盘。 b 在磁盘分区区域中,右键单击可用空间,然后选择 New Logical Drive (新建逻辑驱动器)。 随即显示 Welcome to the New Partition(欢迎使用新建分区)向 导。 c 单击 Next (下一步)。 d 在 Select Partition Type (选择分区类型)窗口中,选择 Logical drive (逻辑驱动器),然后单击 Next (下一步)。 e 在 Specify Partition
为使用 ASM 的数据库存储准备数据库磁盘和快擦写恢复区域 注:如果您要创建用来创建 OCFS 存储磁盘的逻辑驱动器,请忽略以下步骤 并遵循第 96 页上的“为使用 OCFS 的数据库存储准备数据库磁盘和快擦写恢 复区域”中的程序。 要创建用来创建 ASM 磁盘存储的逻辑驱动器: 1 为数据库创建一个逻辑驱动器。 a 找到分配用于 Oracle 数据库的磁盘。 b 在磁盘分区区域中,右键单击可用空间,然后选择 New Logical Drive (新建逻辑驱动器)。 随即显示 Welcome to the New Partition(欢迎使用新建分区)向 导。 c 单击 Next (下一步)。 d 在 Select Partition Type (选择分区类型)窗口中,选择 Logical drive (逻辑驱动器),然后单击 Next (下一步)。 e 在 Specify Partition Size (指定分区大小)窗口的 Partition size in MB (以 MB 为单位的分区大小)字段中,键入相应的大小,然后 单击 Next (下一步)。 f 在 Assign Driv
删除分配的驱动器号 要删除分配的驱动器号: 1 在每个节点的 Windows 桌面上,右键单击 My Computer (我的电 脑),然后选择 Manage (管理)。 2 在 Computer Management (计算机管理)窗口中,展开 Storage (存 储),然后单击 Disk Management (磁盘管理)。 3 如果找到任何分配给在第 93 页上的 “为 Windows 2003 上的群集件准 备 OCR 和投票磁盘”中创建的驱动器的驱动器号,请执行以下步骤: 98 a 右键单击逻辑驱动器,然后选择 Change Drive Letter and Paths (更改驱动器号和路径)。 b c 在 Change Drive Letter and Paths (更改驱动器号和路径)窗口 中,选择驱动器号,然后单击 Remove (删除)。 在 Confirm (确认)窗口中,单击 Yes (是)。 d 对存储分区上的其余逻辑驱动器重复执行步骤 a 至步骤 c。 配置 Oracle RAC Database 的网络和存储
索引 A E ASM , 96 EMC PowerPath, 86 B 绑定对 , 80 帮助 Dell 支持 , 59 Oracle 支持 , 59 EqualLogic 术语 成员 , 58 池 , 58 卷 , 58 组 , 58 J C 超长帧 , 88 磁盘 Oracle 群集注册表磁盘 , 92 冗余投票磁盘 , 94 数据和备份磁盘 , 92 投票磁盘 , 92 D Dell/EMC 光纤信道 , 62 DNS , 79 电缆 CAT 5e, 62 CAT 6, 62 SAS 电缆 , 67 IP 地址 公用 IP 地址 , 79 虚拟 IP 地址 , 79 iSCSI HBA , 71 巨型包 , 88 L 流控制 , 88 M Modular Disk Storage Manager, 87 索引 99
O S OCFS, 96 SAN, 63 SAS 群集 , 67 SDL , 87 P PowerConnect 交换机 , 75 T TCP 减负引擎 , 80 Q 千兆位以太网交换机 , 62 X 虚拟网际协议 , 85 100 索引
Systèmes Dell PowerEdge Oracle Database sous Microsoft Windows Server x64 Guide de stockage et de mise en réseau Version 4.
Remarques, précautions et avertissements REMARQUE : Une REMARQUE indique des informations importantes qui peuvent vous aider à mieux utiliser votre ordinateur. PRÉCAUTION : Une PRÉCAUTION vous avertit d’un risque de dommage matériel ou de perte de données en cas de non-respect des instructions données. AVERTISSEMENT : Un AVERTISSEMENT indique un risque d’endommagement du matériel, de blessures corporelles ou même de mort.
Table des matières 1 Présentation . . . . . . . . . . . . . . . . . . . . . Documentation requise pour déployer la base de données Dell Oracle . . . . . . . 108 . . . . . . . . . . . . . . . . . . . . . 109 Support Dell 109 . . . . . . . . . . . . . . . . . . . Configuration d’un cluster Fibre Channel . . . . . . . . . . Câblage du système de stockage Fibre Channel Dell/EMC . . . . . 3 109 . . . . . . . . . . . . . . . . . . . . Support Oracle 2 107 . . . . . . . . .
4 Configuration du cluster iSCSI pour les systèmes Dell PowerVault MD3000i et boîtiers d’extension PowerVault MD1000 . . . . . . . . . . . . . . . Configuration d’un cluster iSCSI avec le système de stockage Dell PowerVault MD3000i et les boîtiers d’extension Dell PowerVault MD1000 . . 5 . . 121 Câblage du système de stockage iSCSI . . . . . 121 Configuration d’un cluster iSCSI pour les systèmes de stockage Dell EqualLogic série PS . . . . . . . . . . . . 125 . . . . . . . . . . .
Installation des logiciels hôtes requis pour le stockage . . . . . . . . . . . . . . . . . . . . . Installation du logiciel multiacheminement de stockage . . . . . . . . . . . . . . . . . Installation d’EMC PowerPath pour les systèmes Dell/EMC . . . . . . . 137 . . . . . . 137 . . . . . . . . 137 Installation du logiciel multiacheminement pour les systèmes PowerVault MD3000 ou PowerVault MD3000i . . . . . . . . . . . . . . . .
Préparation des disques pour Oracle Clusterware, la base de données et la sauvegarde . . . . . . . . Activation de l’option Automount sur les disques partagés . . . . . . . . . 7 106 Index . 145 . . . . . . 146 Préparation des disques OCR et de vote pour Clusterware sous Windows Server 2003 . . . . . 147 Préparation des disques OCR et de vote pour Clusterware sous Windows Server 2008 . . . . .
Présentation Le Guide de stockage et de mise en réseau pour Oracle Database sous Microsoft Windows s’applique aux versions suivantes : • Oracle Database 10g R2 édition Enterprise exécuté sous Microsoft Windows Server 2003 R2 édition Standard ou Enterprise x64, ou Windows Server 2008 SP2 édition Enterprise ou Standard x64. • Oracle Database 10g R2 édition Standard exécuté sous Windows Server 2003 R2 SP2 ou Windows Server 2008 SP2 édition Standard x64.
• Oracle Database on Microsoft Windows Server x64 Troubleshooting Guide (Oracle Database sous Microsoft Windows Server x64 - Guide de dépannage) : Ce module explique comment résoudre les erreurs rencontrées lors des procédures d’installation présentées dans les modules précédents. REMARQUE : Tous les modules indiquent comment recevoir une assistance technique auprès de Dell.
Obtention d’aide Cette section indique comment contacter Dell ou Oracle pour vous procurer des livres blancs, vous informer sur les configurations prises en charge, connaître les formations proposées ainsi qu’obtenir une assistance technique ou des informations plus générales. Support Dell • Pour plus d’informations sur l’utilisation du système, reportez-vous à la documentation fournie avec ses composants.
Présentation
Configuration d’un cluster Fibre Channel AVERTISSEMENT : Avant d’exécuter les opérations décrites dans cette section, lisez les consignes de sécurité fournies avec votre système. Pour plus d’informations sur les meilleures pratiques, consultez le site dell.com/regulatory_compliance. Une fois l’installation de votre cluster Fibre Channel effectuée par votre prestataire de services Dell, vérifiez les connexions matérielles, ainsi que la configuration du cluster sur le plan matériel et logiciel.
Tableau 2-1.
Câblage du système de stockage Fibre Channel Dell/EMC Selon vos besoins, vous pouvez configurer le système de stockage du cluster Oracle dans une configuration avec connexion à un SAN à quatre ports. Reportez-vous aux procédures suivantes pour les deux configurations. La figure 2-2 présente les connexions matérielles utilisées pour configurer uncluster Fibre Channel avec connexion à un réseau de stockage (SAN). Figure 2-2.
Pour configurer votre système de stockage du cluster Oracle dans une configuration avec connexion à un SAN à quatre ports (voir figure 2-2) : 1 Installez un câble optique entre le port 0 du processeur de stockage A et le commutateur Fibre Channel 0. 2 Installez un câble optique entre le port 1 du processeur de stockage A et le commutateur Fibre Channel 1. 3 Installez un câble optique entre le port 0 du processeur de stockage B et le commutateur Fibre Channel 1.
Configuration d’un cluster SAS pour les systèmes Dell PowerVault MD3000 AVERTISSEMENT : Avant d’exécuter les opérations décrites dans cette section, lisez les consignes de sécurité fournies avec votre système. Pour plus d’informations sur les meilleures pratiques, consultez le site dell.com/regulatory_compliance.
Tableau 3-1. Interconnexions matérielles d’un cluster SAS Composant de cluster Connexions Nœud du système PowerEdge • Un câble CAT5e/6 reliant la carte de réseau public au réseau local (LAN). • Un câble CAT5e/6 reliant la carte de réseau Gigabit privé au commutateur Ethernet Gigabit (réseau privé). • Un câble CAT5e/6 reliant la carte du réseau Gigabit redondant privé au commutateur Ethernet Gigabit redondant (réseau privé).
Câblage du système de stockage SAS Les clusters SAS ne peuvent être installés que dans un environnement à connexion directe ; ils sont limités à deux nœuds. Pour configurer les nœuds dans un environnement à connexion directe (voir la figure 3-2) : 1 Installez un câble SAS entre un port du contrôleur SAS du nœud 1 et le port In-0 du contrôleur RAID 0 du châssis RAID PowerVault MD3000.
Figure 3-2.
Configuration du cluster iSCSI pour les systèmes Dell PowerVault MD3000i et boîtiers d’extension PowerVault MD1000 AVERTISSEMENT : Avant d’exécuter les opérations décrites dans cette section, lisez les consignes de sécurité fournies avec votre système. Pour plus d’informations sur les meilleures pratiques, consultez le site dell.com/regulatory_compliance.
Tableau 4-1. Interconnexions de composants matériels iSCSI Composant de cluster Connexions Un système de stockage Dell PowerVault MD3000i • Deux câbles CAT 5e/6 connectés au réseau local (un à partir de chaque processeur de stockage) pour l’interface de gestion. • Deux câbles CAT 5e/6 par processeur de stockage pour l’interconnexion iSCSI. REMARQUE : Pour plus d’informations sur le système Dell PowerVault MD3000i, voir le document Dell PowerVault MD3000i Setup (Configuration de Dell PowerVault MD3000i).
Configuration d’un cluster iSCSI avec le système de stockage Dell PowerVault MD3000i et les boîtiers d’extension Dell PowerVault MD1000 Câblage du système de stockage iSCSI Les clusters iSCSI à connexion directe sont limités à deux nœuds. Figure 4-1.
4 Installez un câble CAT 5e/6 entre l’autre port (carte adaptateur HBA iSCSI ou carte réseau) du nœud 2 et le port In-1 du contrôleur RAID 1 du boîtier de stockage Dell PowerVault MD3000i. 5 Installez deux câbles SAS entre les deux ports de sortie du MD3000 et les deux ports d’entrée (In) du premier boîtier d’extension Dell PowerVault MD1000 (en option).
Pour configurer les nœuds dans une liaison par commutateur (voir figure 4-2) : 1 Installez un câble CAT 5e/6 entre un port (adaptateur HBA iSCSI ou carte réseau) du nœud 1 et le port du commutateur réseau 1. 2 Installez un câble CAT 5e/6 entre un port (adaptateur HBA iSCSI ou carte réseau) du nœud 1 et le port du commutateur réseau 2. 3 Installez un câble CAT 5e/6 entre un port (adaptateur HBA iSCSI ou carte réseau) du nœud 2 et le port du commutateur réseau 1.
Configuration d'un cluster iSCSI
Configuration d’un cluster iSCSI pour les systèmes de stockage Dell EqualLogic série PS AVERTISSEMENT : Avant d’exécuter les opérations décrites dans cette section, lisez les consignes de sécurité fournies avec votre système. Pour plus d’informations sur les meilleures pratiques, consultez le site dell.com/regulatory_compliance.
Figure 5-1.
Figure 5-2.
Comme l’illustre la figure 5-2, le groupe groupe-oracle inclut trois membres PS5000XV : • membre-oracle01 • membre-oracle02 • membre-oracle03 Lorsqu’un membre est initialisé, il peut être configuré en RAID 10, RAID 5 ou RAID 50. Pour plus d’informations sur l’initialisation d’une matrice EqualLogic, voir le document Dell EqualLogic User’s Guide (Guide de l’utilisateur de Dell EqualLogic). Un groupe de stockage série PS peut être divisé en plusieurs niveaux ou pools.
Configuration du réseau et du stockage pour la base de données Oracle RAC Cette section donne des informations sur : • Configuration des réseaux public et privé • Vérification de la configuration du stockage • Configuration du stockage partagé pour Oracle Clusterware et la base de données Oracle REMARQUE : Oracle RAC nécessite une série ordonnée de procédures. Pour configurer la mise en réseau et le stockage en un minimum de temps, effectuez dans l’ordre les procédures mentionnées dans ce chapitre.
Selon le nombre de ports de carte réseau disponibles, configurez les interfaces publique et privée comme décrit dans le tableau 6-1. Tableau 6-1.
Configuration du regroupement (teaming) de cartes réseau pour vos cartes de réseau privé REMARQUE : Cette solution ne prend pas en charge le moteur de décentralisation TCP/IP (TOE, TCP Offload Engine) pouvant être utilisé par les cartes réseau. Pour configurer le regroupement (teaming) de cartes réseau pour vos cartes de réseau privé : 1 Sur le nœud 1, identifiez deux cartes réseau utilisées pour le regroupement de cartes réseau.
j Cliquez sur Finish (Terminer) pour terminer le regroupement. k Dans la fenêtre Team Properties (Propriétés du regroupement), cliquez sur OK. l Dans la fenêtre Intel NIC’s Properties (Propriétés de la carte réseau Intel), cliquez sur OK. m Fermez la fenêtre Gestion de l’ordinateur. 4 Si le nœud 1 est configuré avec des cartes réseau Broadcom, configurez le regroupement des cartes réseau comme suit. Sinon, passez à l’étape 5.
REMARQUE : Lorsque vous regroupez des cartes réseau Broadcom intégrées sur un système Dell PowerEdge 6850, l’avertissement suivant s’affiche. Including this adapter in a team will disrupt the system management features. Click Yes to proceed. (L’ajout de cette carte à un regroupement va perturber les fonctions de gestion du système. Cliquez sur Oui pour continuer.) g Cliquez sur Next (Suivant).
Configuration des adresses IP pour les cartes des réseaux public et privé REMARQUE : Cette solution ne prend pas en charge la fonction TOE utilisée par certaines cartes réseau. Pour configurer les adresses IP pour vos cartes de réseaux public et privé : 1 Mettez à jour le nom de l’interface réseau de la carte, si cela est nécessaire. Sinon, passez à l’étape 3. a Sur le nœud 1, cliquez sur Démarrer puis sélectionnez Paramètres→ Panneau de configuration→ Connexions réseau.
e Cliquez sur OK. f Dans la fenêtre Propriétés, cliquez sur Fermer. g Recommencez la procédure de l’étape a à l’étape f sur le regroupement de cartes réseau privées. REMARQUE : Le regroupement de cartes réseau privées ne requiert pas d’adresse de passerelle par défaut ni d’entrée sur le serveur DNS. 3 Vérifiez que les cartes de réseaux public et privé apparaissent dans l’ordre approprié pour que les services réseau puissent y accéder.
Tableau 6-3. Adresse IP et noms de nœuds Adresse IP Nom du nœud 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.202 rac2-vip REMARQUE : Étant donné que les adresses IP du réseau privé ne sont pas accessibles à partir du réseau public, leur enregistrement sur le serveur DNS n’est pas nécessaire. 5 Recommencez la procédure de l’étape 1 à l’étape 4 sur les nœuds restants.
Installation des logiciels hôtes requis pour le stockage Si vous installez un système de stockage Dell/EMC Fibre Channel, voir la documentation Dell/EMC fournie avec le système pour installer le logiciel EMC Naviagent. Si vous installez un système de stockage Dell PowerVault, voir la documentation Dell PowerVault fournie avec le système pour installer le logiciel MDSM (Modular Disk Storage Manager) à partir du support Dell PowerVault Resource.
Installation du logiciel multiacheminement pour les systèmes PowerVault MD3000 ou PowerVault MD3000i Dans le cas d’un cluster SAS ou iSCSI (système de stockage PowerVault MD3000 ou MD3000i), le logiciel multiacheminement doit déjà être installé sur vos hôtes comme il est indiqué à la section «Installation des logiciels hôtes requis pour le stockage» à la page 137.
Vérification et mise à niveau du micrologiciel • À l’aide du logiciel MDSM installé sur le serveur hôte, lancez la détection des unités de stockage directement connectées au serveur. • Vérifiez que le micrologiciel utilisé par les composants de stockage répertoriés ci-après correspond à la version minimale requise. Voir le document Solutions Deliverable List (Liste des éléments pris en charge) pour identifier les versions de micrologiciel requises.
Tableau 6-4.
Configuration des réseaux iSCSI Il est conseillé de configurer les interfaces réseaux hôtes pour le trafic iSCSI de sorte qu’elles utilisent le contrôle de flux et une trame Jumbo pour des performances optimales. Pour paramétrer le contrôle de flux et la trame Jumbo : 1 Cliquez sur Démarrer→ Paramètres→ Connexions réseau. 2 Sélectionnez l’interface réseau iSCSI, cliquez avec le bouton droit et sélectionnez Propriétés. 3 Cliquez sur Configurer. 4 Cliquez sur Avancé.
4 Dans la fenêtre License Agreements (Contrats de licence), sélectionnez I accept the terms of all the license agreements (J’accepte toutes les conditions du contrat de licence) et cliquez sur Next (Suivant). 5 Dans la fenêtre Installation Type (Type d’installation), cliquez sur Next (Suivant). 6 Dans la fenêtre Ready to install the components (Prêt pour l’installation des composants), cliquez sur Install (Installer).
Configuration de l’initiateur Microsoft iSCSI Pour configurer l’initiateur Microsoft iSCSI : 1 Double-cliquez sur l’icône Microsoft iSCSI Initiator (Initiateur Microsoft iSCSI) sur le bureau. 2 Dans l’onglet Discovery (Découverte) de la fenêtre iSCSI Initiator Properties (Propriétés de l’initiateur iSCSI), l’adresse IP de l’adresse de groupe EqualLogic devrait déjà avoir été remplie par le kit HIT.
7 Dans la fenêtre Log On to Target (Se connecter à la cible), cliquez sur OK. 8 Dans l’onglet Targets (Cibles) de la fenêtre iSCSI Initiator Properties (Propriétés de l’initiateur iSCSI), l’état du volume auquel vous êtes connecté devrait indiquer Connected (Connecté). 9 Répétez l’étape 3 à l’étape 8 pour vous connecter au même volume pour chaque adresse IP de l’initiateur iSCSI. 10 Répétez l’étape 3 à l’étape 9 pour vous connecter à tous les autres volumes créés pour la base de données.
b Dans la fenêtre Select Disks to Initialize (Sélectionnez les disques à initialiser) de l’écran Disks (Disques), sélectionnez les disques associés aux LUN/disques virtuels de stockage et cliquez sur Next (Suivant). c Dans la fenêtre Select Disks to Convert (Sélectionnez les disques à convertir), désélectionnez le ou les disques choisis à l’étape b et cliquez sur Next (Suivant). REMARQUE : Cette procédure permet de configurer les disques en tant que disques de base. d Cliquez sur Finish (Terminer).
Afin de préparer les disques pour Oracle Clusterware, identifiez le disque OCR ainsi que les disques de vote, de données et de la zone de récupération flash. Après avoir identifié les disques, effectuez les opérations suivantes sur le nœud 1 : 1 Activation de l’option Automount sur les disques partagés. 2 Préparation des disques OCR et de vote pour Clusterware sous Windows Server 2003. 3 Préparation des disques OCR et de vote pour Clusterware sous Windows Server 2008.
Préparation des disques OCR et de vote pour Clusterware sous Windows Server 2003 Pour préparer les disques OCR et de vote pour Clusterware sous Windows Server 2003. 1 Sur le bureau Windows, cliquez avec le bouton droit de la souris sur My Computer (Poste de travail) et sélectionnez Manage (Gérer). 2 Développez Storage (Stockage) et sélectionnez Disk Management (Gestion des disques).
9 Créez un lecteur logique pour le disque OCR. a Dans la zone de partition du disque identifié pour servir de disque OCR et de disque de vote (LUN/disque virtuel de 2 Go), cliquez avec le bouton droit de la souris sur l’espace disponible et sélectionnez New Logical Drive (Créer un nouveau lecteur logique). L’assistant Welcome to the New Partition (Création d’une nouvelle partition) s’affiche. b Cliquez sur Next (Suivant).
c Dans la fenêtre Select Partition Type (Sélection du type de partition), sélectionnez Logical drive (Lecteur logique) et cliquez sur Next (Suivant). d Dans la fenêtre Specify Partition Size (Spécifier la taille de la partition), entrez 50 dans le champ Partition size in MB (Taille de la partition en Mo) et cliquez sur Next (Suivant).
3 Tapez list disk pour afficher un tableau similaire à celui ci-dessous : DISKPART> list disk Disk ### Status Size Free Disk 0 Online 37 GB Disk 1 Online 2048 MB 2014 MB Disk 2 Online 100 GB 100 GB Disk 3 Online 200 GB 200 GB 0 MB 4 Entrez select disk [n° disque] avec le numéro du disque cible. REMARQUE : La procédure suivante explique comment créer des partitions et des disques logiques pour un disque MBR. 5 Tapez create partition extended, puis appuyez sur Entrée.
Pour créer des lecteurs logiques destinés au disque de stockage OCFS (Oracle’s Clustered File System) : 1 Sur le nœud 1, créez un lecteur logique pour le disque de base de données. a Repérez le disque affecté à la base de données Oracle. b Dans la zone de partition du disque, cliquez avec le bouton droit de la souris sur l’espace disponible et sélectionnez New Logical Drive (Nouveau lecteur logique). L’assistant Welcome to the New Partition (Création d’une nouvelle partition) s’affiche.
Préparation du disque de la base de données et de la zone de récupération flash pour le stockage de la base de données avec ASM REMARQUE : Si vous créez les lecteurs logiques destinés au disque de stockage OCFS, ne tenez pas compte de la procédure suivante et suivez les instructions de la section «Préparation du disque de la base de données et de la zone de récupération flash pour le stockage de la base de données avec OCFS» à la page 150.
Suppression des lettres affectées aux lecteurs Pour supprimer les lettres affectées aux lecteurs : 1 Sur le bureau Windows, pour chaque nœud, cliquez avec le bouton droit de la souris sur My Computer (Poste de travail) et sélectionnez Manage (Gérer). 2 Dans la fenêtre Computer Management (Gestion de l’ordinateur), développez l’élément Storage (Stockage) et cliquez sur Disk Management (Gestion des disques).
Configuration du réseau et du stockage pour la base de données Oracle RAC
Index A D adaptateur HBA iSCSI, 121 Dell/EMC Fibre Channel, 112 adresse IP adresse IP publique, 129 adresse IP virtuelle, 129 disques de données et de sauvegarde, 145 de vote, 145 de vote redondant, 149 disque OCR, 145 aide support Dell, 109 support Oracle, 109 DNS, 129 ASM, 150 E C câble CAT 5e, 112 CAT 6, 112 SAS, 117 clusters SAS, 117 Commutateur Ethernet Gigabit, 112 commutateur PowerConnect, 125 Contrôle du débit, 141 EMC PowerPath, 137 M Modular Disk Storage Manager, 139 moteur TOE, 131 O
P S paire liée, 130 SDL, 139 paquet Jumbo, 141 protocole Internet virtuel (VIP), 136 T R terminologie EqualLogic groupe, 108 membre, 108 pool, 108 volume, 108 réseau de stockage (SAN), 113 trame Jumbo, 141 156 Index
Dell PowerEdge-Systeme Oracle Database unter Microsoft Windows Server x64 Speicher- und Netzwerkhandbuch Version 4.
Anmerkungen, Vorsichtshinweise und Warnungen ANMERKUNG: Eine ANMERKUNG macht auf wichtige Informationen aufmerksam, mit denen Sie den Computer besser einsetzen können. VORSICHTSHINWEIS: Ein VORSICHTSHINWEIS macht aufmerksam auf mögliche Beschädigung der Hardware oder Verlust von Daten bei Nichtbefolgung von Anweisungen. WARNUNG: Durch eine WARNUNG werden Sie auf Gefahrenquellen hingewiesen, die materielle Schäden, Verletzungen oder sogar den Tod von Personen zur Folge haben können.
Inhalt 1 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . Erforderliche Dokumentation zum Bereitstellen von Dell Oracle Database . . . . 164 . . . . . . . . . . . . . . . . 165 . . . . . . . . . . . . . . . . . . . . 165 Wie Sie Hilfe bekommen Oracle-Support . 2 165 . . . . . . . . . . . . . . . . . . Einrichten von Fibre-Channel-Clustern . . . . . . . . . . . . . Verkabelung des Dell/EMC Fibre-ChannelSpeichersystems . . . . . . . . . . . . . . . 3 163 . . . . . . . .
4 5 iSCSI-Cluster-Einrichtung für Dell PowerVault MD3000i und Erweiterungsgehäuse PowerVault MD1000 . . . . . . . . . . . . . . . 177 Einrichten eines iSCSI-Clusters mit Dell PowerVault MD3000i-Speichersystem und Dell PowerVault MD1000-Erweiterungsgehäusen. . . . . . . . . . . . 179 Verkabeln eines iSCSI-Speichersystems . . . . . 179 iSCSI-Cluster-Einrichtung für Dell EqualLogic PS-Speichersysteme . . . . . 183 . . . . . . . . . . . 183 Verkabeln eines Dell EqualLogic iSCSI-Speichersystems .
Installation der Multipath-Treibersoftware für PowerVault MD3000/PowerVault MD3000i . . . 196 . . . . 196 . . . . . . . . . 196 . . . . . . . . 197 Installieren der Multipath-Treibersoftware für ein EqualLogic iSCSI-Speicherarray . . Überprüfen der Funktionalität des Multipath-Treibers . . . . . . . . Überprüfung und Upgrade der Firmware . . . . 197 . . . . . . . . . . . . . . . 197 . . . . . . .
Inhalt
Übersicht Das Speicher- und Netzwerkhandbuch für Oracle Database unter Microsoft Windows betrifft: • Oracle Database 10g R2 Standard Edition auf Microsoft Windows Server 2003 R2 Standard oder Enterprise x64 Edition oder Windows Server 2008 SP2 Standard oder Enterprise x64 Edition. • Oracle Database 10g R2 Standard Edition unter Windows Server 2003 R2 SP2 Standard x64 Edition oder Windows Server 2008 SP2 Standard x64 Edition.
In diesem Dokument verwendete Terminologie In diesem Dokument werden die Begriffe Logische Gerätenummer (LUN) und Virtueller Datenträger verwendet. Diese Begriffe sind synonym und untereinander ersetzbar. Der Begriff LUN wird üblicherweise im Zusammenhang mit Dell/EMC Fibre-Channel-Speichersystemumgebungen und der Begriff Virtueller Datenträger bei Dell PowerVault SAS- und iSCSISpeicherumgebungen (Dell PowerVault MD3000 and Dell PowerVault MD3000i mit Dell PowerVault MD1000-Erweiterung) verwendet.
Wie Sie Hilfe bekommen Dieser Abschnitt enthält Kontaktinformationen von Dell oder Oracle, über die Sie Whitepapers, Informationen zu den unterstützten Konfigurationen, Schulungsmaterial, technischen Support und allgemeine Informationen anfordern können. Dell-Support • Ausführliche Informationen zur Verwendung des Systems finden Sie in der zusammen mit den Systemkomponenten gelieferten Dokumentation.
Übersicht
Einrichten von Fibre-ChannelClustern WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Weitere Informationen zu empfohlenen und bewährten Praktiken finden Sie unter dell.com/regulatory_compliance.
Abbildung 2-1. Hardwareverbindungen für einen SAN-verbundenen Fibre-Channel-Cluster Clientsysteme Gigabit-Ethernet-Switches (Privates Netzwerk) LAN/WAN Dell PowerEdge-Systeme (Oracle-Datenbank) Dell/EMC Fibre Channel Switches (SAN) Dell/EMC Fibre Channel Speichersysteme CAT 5e/6 (öffentlicher NIC) CAT 5e/6 (Kupfer-Gigabit-NIC) Glasfaserkabel Zusätzliche Glasfaserkabel Tabelle 2-1.
Tabelle 2-1. Fibre-Channel-Hardwareverbindungen (fortgesetzt) Clusterkomponente Verbindungen Dell/EMC FibreChannelSpeichersystem • Zwei CAT 5e- oder CAT 6-Kabel zum LAN • Ein bis vier Glasfaserverbindungen zu jedem Fibre-ChannelSwitch.
Verkabelung des Dell/EMC Fibre-ChannelSpeichersystems Sie können das Oracle Cluster-Speichersystem nach Bedarf in einer über Speichernetzwerk (Storage Area Network = SAN)-verbundenen Konfiguration mit vier Ports einrichten. Nachstehend sind die Anleitungen für beide Konfigurationstypen aufgeführt. Abbildung 2-2 zeigt die Hardwareverbindungen für die Einrichtung eines SAN-verbundenen Fibre-Channel-Clusters. Abbildung 2-2.
Gehen Sie wie folgt vor, um das Oracle Cluster-Speichersystem für eine SAN-Attach-Konfiguration mit vier Ports zu verkabeln (siehe Abbildung 2-2): 1 Verbinden Sie Port 0 von SP-A durch ein Glasfaserkabel mit Fibre-Channel-Switch 0. 2 Verbinden Sie Port 1 von SP-A durch ein Glasfaserkabel mit Fibre-Channel-Switch 1. 3 Verbinden Sie Port 0 von SP-B durch ein Glaserfaserkabel mit Fibre-Channel-Switch 1. 4 Verbinden Sie Port 1 von SP-B durch ein Glaserfaserkabel mit Fibre-Channel-Switch 0.
Einrichten von Fibre-Channel-Clustern
Einrichten eines SAS-Clusters für Dell PowerVault MD3000 WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Weitere Informationen zu empfohlenen und bewährten Praktiken finden Sie unter dell.com/regulatory_compliance.
Abbildung 3-1. SAS-Cluster (Serial-Attached SCSI) und Dell PowerVault MD3000 verkabeln Öffentliches Netzwerk LAN/WAN PowerEdge-Systeme PowerVault MD3000 Speichersystem CAT 5e/6 (Kupfer-Gigabit-NIC) CAT 5e/6 (Kupfer-Gigabit-NIC) SAS-Kabel Tabelle 3-1.
Tabelle 3-1. Verbindungen der SAS-Clusterhardware (fortgesetzt) Clusterkomponente Verbindungen PowerVault MD3000 • Zwei CAT 5e/6-Kabel zum LAN (eines von jedem Speicherprozessormodul) • Zwei SAS-Verbindungen zu jedem PowerEdgeSystemknoten mit einem SAS 5/E-Controller. Siehe „Verkabeln des SAS-Speichersystems” auf Seite 175. Gigabit-Ethernet-Switch • Jeweils eine CAT 5e/6-Verbindung zum privaten Gigabit-NIC auf jedem PowerEdge-System.
Abbildung 3-2.
iSCSI-Cluster-Einrichtung für Dell PowerVault MD3000i und Erweiterungsgehäuse PowerVault MD1000 WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Weitere Informationen zu empfohlenen und bewährten Praktiken finden Sie unter dell.com/regulatory_compliance.
Tabelle 4-1. iSCSI-Hardwareverbindungen Clusterkomponente Verbindungen Ein PowerEdgeSystemknoten • Ein CAT 5e/6-Kabel vom öffentlichen NIC zum lokalen Netzwerk (LAN). • Ein CAT 5e/6-Kabel vom privaten Gigabit-NIC zum Gigabit-Ethernet-Switch (privates Netzwerk). • Ein CAT 5e/6-Kabel vom redundanten privaten Gigabit-NIC zum redundanten Gigabit-EthernetSwitch (privates Netzwerk). ANMERKUNG: Weitere Informationen zum System Dell PowerVault MD3000i finden Sie im Dokument Dell PowerVault MD3000i Einrichtung.
Einrichten eines iSCSI-Clusters mit Dell PowerVault MD3000i-Speichersystem und Dell PowerVault MD1000-Erweiterungsgehäusen Verkabeln eines iSCSI-Speichersystems Direkt verbundene iSCSI-Cluster sind auf zwei Knoten beschränkt. Abbildung 4-1.
4 Verbinden Sie den anderen Port (iSCSI-HBA oder NIC) von Knoten 2 durch ein CAT 5e/6-Kabel mit Port In-1 von RAID-Controller 1 im Dell PowerVault MD3000i-Speichergehäuse. 5 Verbinden Sie die zwei Out-Ports des MD3000 durch zwei SAS-Kabel mit den beiden In-Ports des ersten Dell PowerVault MD1000Erweiterungsgehäuses (optional). 6 Verbinden Sie die beiden Out-Ports des MD1000 durch zwei SAS-Kabel mit den beiden In-0-Ports des zweiten Dell PowerVault MD1000Erweiterungsgehäuses (optional).
So konfigurieren Sie Ihre Knoten in einer Switch-Konfiguration (siehe Abbildung 4-2): 1 Verbinden Sie einen Port (iSCSI-HBA oder NIC) von Knoten 1 durch ein CAT 5e/6-Kabel mit dem Port von Netzwerkswitch 1. 2 Verbinden Sie einen Port (iSCSI-HBA oder NIC) von Knoten 1 durch ein CAT 5e/6-Kabel mit dem Port von Netzwerkswitch 2. 3 Verbinden Sie einen Port (iSCSI-HBA oder NIC) von Knoten 2 durch ein CAT 5e/6-Kabel mit dem Port von Netzwerkswitch 1.
Einrichten von iSCSI-Channel-Clustern
iSCSI-Cluster-Einrichtung für Dell EqualLogic PS-Speichersysteme WARNUNG: Bevor Sie gemäß den in diesem Abschnitt beschriebenen Anleitungen verfahren, lesen Sie zunächst die Sicherheitshinweise in der entsprechenden Dokumentation im Lieferumfang Ihres Systems. Weitere Informationen zu empfohlenen und bewährten Praktiken finden Sie unter dell.com/regulatory_compliance.
Abbildung 5-1. Empfohlene Netzwerkkonfiguration Trunk-Verbindungen Dell PowerConnect 54xx Gigabit-Ethernet-Switches für iSCSI-Speichernetzwerk Rückansicht des Dell EqualLogic iSCSI-Speicherarrays Betriebsanzeige iSCSI-Speichernetzwerk Netzteil- und Kühlmodul 1 Steuermodul 1 Steuermodul 0 Netzteil- und Kühlmodul 0 Abbildung 5-2 zeigt eine Oracle RAC-Beispielkonfiguration mit drei PS5000XV-Arrays. Tabelle 5-1.
Abbildung 5-2.
Wie in Abbildung 5-2 gezeigt, umfasst die Gruppe oracle-group drei PS5000XV-Mitglieder: • oracle-member01 • oracle-member02 • oraclemember03 Wenn ein Mitglied initialisiert wird, kann es mit RAID 10, RAID 5 oder RAID 50 konfiguriert werden. Weitere Informationen zum Initialisieren eines EqualLogic-Arrays erhalten Sie im Dell EqualLogic Benutzerhandbuch. Eine PS-Speichergruppe kann in mehrere Ebenen oder Pools unterteilt werden.
Konfiguration von Netzwerk und Speicher für Oracle RAC Database In diesem Abschnitt finden Sie Informationen zu den folgenden Themen: • Konfiguration des öffentlichen und privaten Netzwerks. • Überprüfen der Speicherkonfiguration. • Konfiguration des gemeinsamen Speichers für Oracle Clusterware und Oracle Database. ANMERKUNG: Oracle RAC erfordert eine geordnete Vorgehensweise.
Tabelle 6-1. NIC-Port-Zuordnungen NIC-Port Drei verfügbare Ports Vier verfügbare Ports 1 Öffentliche IP und virtuelle IP Öffentliche IP 2 Private IP (NIC-Team) Private IP (NIC-Team) 3 Private IP (NIC-Team) Private IP (NIC-Team) 4 – Virtuelle IP Konfiguration und Teaming des privaten Netzwerks Bevor Sie den Cluster einrichten, weisen Sie jedem Clusterknoten eine private IP-Adresse und einen Hostnamen zu.
Tabelle 6-2. Beispiel für die Netzwerkkonfiguration eines Clusters mit zwei Knoten (fortgesetzt) Host-Name Typ IP-Adresse Registriert in rac1-priv Privat 10.10.10.1 %Systemstammpfad%\system32\drivers\etc\ hosts rac2-priv Privat 10.10.10.2 %Systemstammpfad%\system32\drivers\etc\ hosts Konfiguration von NIC-Teaming für die privaten Netzwerkadapter ANMERKUNG: Die TOE-Funktion (TCP Offload Engine) bei einem TOE-fähigen NIC wird bei dieser Lösung nicht unterstützt.
h Wählen Sie im Feld Select the adapters to include in this team (Adapter für dieses Team auswählen) die für das NIC-Teaming ausgewählten verbleibenden Netzwerkadapter, und klicken Sie auf Next (Weiter). i Wählen Sie im Listenfeld Select a team mode (Team-Betriebsart wählen) die Option Adaptive Load Balancing (Adaptiver Lastausgleich). j Klicken Sie auf Finish (Fertig stellen), um das Teaming abzuschließen. k Klicken Sie im Fenster Team Properties (Team-Eigenschaften) auf OK.
f Wählen Sie im Fenster Assigning Team Members (Zuweisung von Team-Mitgliedern) im Feld Available Adapters (Verfügbare Adapter) die für das NIC-Teaming bestimmten Netzwerkadapter aus und übernehmen Sie sie in das Feld Team Members (Team-Mitglieder). ANMERKUNG: Bei der Konfiguration der integrierten Broadcom-NICs für ein Team wird bei PowerEdge 6850-Systemen der folgende Warnhinweis angezeigt: Including this adapter in a team will disrupt the system management features. Click Yes to Proceed.
Konfiguration der IP-Adressen für die öffentlichen und privaten Netzwerkadapter ANMERKUNG: Die TOE-Funktion eines TOE-fähigen NICs wird bei dieser Lösung nicht unterstützt. Konfiguration der IP-Adressen für die öffentlichen und privaten Netzwerkadapter: 1 Aktualisieren Sie den Netzwerkschnittstellennamen des Adapters, falls erforderlich. Ansonsten fahren Sie mit Schritt 3 fort. a Klicken Sie auf Knoten 1 auf Start, und wählen Sie Einstellungen→ Systemsteuerung→ Netzwerkverbindungen.
d Wählen Sie im Fenster Öffentliche Eigenschaften die Option Symbol bei Verbindung im Infobereich anzeigen. Nachdem Sie die in diesem Abschnitt erläuterten Schritte durchgeführt haben, wird der Status des Netzwerkadapters im Windows-Systembereich angezeigt. e Klicken Sie auf OK. f Klicken Sie im Fenster Eigenschaften auf Schließen. g Wiederholen Sie Schritt a bis Schritt f für das private NIC-Team.
ANMERKUNG: Tragen Sie die öffentlichen und virtuellen IP-Adressen nur dann in der hosts-Datei ein, wenn Sie nicht beim DNS-Server registriert sind. So nutzen beispielsweise die folgenden Einträge die Netzwerkadapter-IP und den Hostnamen in Tabelle 6-3: Tabelle 6-3. IP-Adresse und Knotennamen IP-Adresse Knotenname 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.
Installation der hostbasierten Software für das Speichersystem Wenn Sie ein Dell/EMC Fibre Channel-Speichersystem einrichten, installieren Sie die Software EMC Naviagent gemäß der Anleitung in der mit dem System gelieferten Dell/EMC-Dokumentation. Wenn Sie ein Dell PowerVault Speichersystem einrichten, installieren Sie die Software Modular Disk Storage Manager (MDSM) gemäß der Anleitung in der mit dem System gelieferten Dell PowerVault Dokumentation vom Dell PowerVault Resource-Medium.
Installation der Multipath-Treibersoftware für PowerVault MD3000/PowerVault MD3000i Bei einem SAS- oder iSCSI-Cluster (PowerVault MD3000/MD3000iSpeichersystem) sollte die Multipath-Software gemäß den Anweisungen von Abschnitt „Installation der hostbasierten Software für das Speichersystem” auf Seite 195 bereits auf den Hosts installiert sein.
Überprüfung und Upgrade der Firmware • Führen Sie mit der auf dem Hostserver installierten Software Modular Disk Storage Manager (MDSM) eine Erkennung des direkt verbundenen Speichers durch. • Stellen Sie sicher, dass die Firmware-Mindestanforderungen der folgenden Speicherkomponenten erfüllt sind. Die Angaben für die FirmwareMindestversionen finden Sie in der Solutions Deliverable List (SDL).
Tabelle 6-4.
Konfiguration von iSCSI-Netzwerken Es wird empfohlen, die Host-Netzwerkschnittstellen für iSCSI-Datenverkehr mit Flusskontrolle und Großrahmen zu konfigurieren, um die Leistung zu optimieren. Um Flusskontrolle und Großrahmen einzurichten, gehen Sie wie folgt vor: 1 Wählen Sie Start→ Einstellungen→ Netzwerkverbindungen. 2 Markieren Sie die iSCSI-Netzwerkschnittstelle und klicken Sie mit der rechten Maustaste auf Eigenschaften. 3 Klicken Sie auf Konfigurieren. 4 Klicken Sie auf Erweitert.
5 Klicken Sie im Fenster Installation Type (Installationstyp) auf Next (Weiter). 6 Klicken Sie im Fenster Ready to install the components (Bereit zur Installation der Komponenten) auf Install (Installieren). Das Fenster Installation Status (Installationsstatus) und das Fenster Software Update Installation Wizard (Assistent für Software-UpdateInstallation) werden angezeigt. 7 Klicken Sie im Fenster Installation Complete (Installation abgeschlossen) auf Finish (Fertig stellen).
3 Klicken Sie im Fenster iSCSI Initiator Properties (Eigenschaften von iSCSI-Initiator) auf der Registerkarte Targets (Ziele) auf ein Volume, das für die Oracle-Datenbank erstellt wurde. Klicken Sie auf Log On (Anmelden). 4 Aktivieren Sie im Fenster Log On to Target (An Target anmelden) die zwei Kontrollkästchen bei Automatically restore this connection when the system boots (Diese Verbindung beim Systemstart automatisch wiederherstellen) und Enable multi-path (Multipath aktivieren).
Überprüfen der Zuordnung zwischen dem Speichersystem und den Knoten So überprüfen Sie die Zuordnung zwischen dem Speichersystem und den Knoten: 1 Klicken Sie auf dem Windows-Desktop mit der rechten Maustaste auf Arbeitsplatz und wählen Sie Verwalten. 2 Klicken Sie im Fenster Computerverwaltung auf Geräte-Manager. 3 Klicken Sie auf das Kreuz neben Laufwerke, um die Untereinträge einzublenden.
Vorbereiten der Datenträger für Oracle Clusterware, Database und Backup Dieser Abschnitt enthält Informationen zum Erstellen der logischen Laufwerke für die folgenden Datenträger: • OCR-Datenträger (Oracle Cluster Registry) – Enthält die Clusterkonfigurationsinformationen • Voting-Datenträger – Sorgt für Ausgleich zwischen den Clusterknoten, wenn das private Netzwerk oder das verbundene Speichersystem für einen oder mehrere Knoten nicht zugänglich ist • Daten- und Sicherungsdatenträger – Stellen Speich
Aktivieren der Automount-Option für freigegebene Datenträger So aktivieren Sie die Automount-Option für freigegebene Datenträger: 1 Klicken Sie auf Knoten 1 auf Start und wählen Sie Ausführen. 2 Geben Sie im Feld Ausführen den Befehl cmd ein und klicken Sie auf OK. 3 Geben Sie an der Eingabeaufforderung den Befehl diskpart ein und drücken Sie die . 4 Geben Sie an der Eingabeaufforderung DISKPART den Befehl automount enable ein und drücken Sie die .
4 Klicken Sie auf Weiter. 5 Wählen Sie im Fenster Partitionstyp festlegen die Option Erweiterte Partition und klicken Sie auf Weiter. 6 Akzeptieren Sie im Fenster Partitionsgröße festlegen die vorgegebene Partitionsgröße und klicken Sie auf Weiter. 7 Klicken Sie auf Fertig stellen. Der in ausgewählte Partitionsbereich wird als erweiterte Partition konfiguriert. Schritt 3. 8 Wiederholen Sie Schritt 3 bis Schritt 7 für alle freigegebenen Datenträger, die den Clusterknoten zugeordnet sind.
10 Erstellen Sie ein logisches Laufwerk für den Voting-Datenträger. a Klicken Sie im Partitionsbereich des Datenträgers für OCR und Voting (2-GB-LUN/virtueller Datenträger) mit der rechten Maustaste auf den freien Platz und wählen Sie New Logical Drive (Neues logisches Laufwerk). Das Begrüßungsfenster des Assistenten zum Erstellen von Partitionen wird angezeigt. b Klicken Sie auf Weiter. c Wählen Sie im Fenster Partitionstyp festlegen die Option Logisches Laufwerk und klicken Sie auf Weiter.
Vorbereiten des OCR- und Voting-Datenträgers für Clusterware unter Windows Server 2008 ANMERKUNG: Die Schritte zum Erstellen erweiterter Partitionen und logischer Laufwerke sind die gleichen wie bei Windows Server 2003. Sie können jedoch in Windows Server 2008 nicht mehr über die grafische Benutzeroberfläche der Datenträgerverwaltung ausgeführt werden. So erstellen Sie erweiterte Partitionen und logische Laufwerke: 1 Klicken Sie auf Start→ Ausführen. Geben Sie cmd ein und drücken Sie die Eingabetaste.
Vorbereiten des Datenbankdatenträgers und des Wiederherstellungsbereichs für OCFS-Datenspeicherung ANMERKUNG: Wenn automatische Speicherverwaltung (ASM) verwendet wird, sollte die ASM-Datenträgergruppe größer als die Datenbank sein (mehrere LUNs) und die Größe des Flash-Wiederherstellungsbereichs sollte mindestens das Doppelte der Datenträgergruppe betragen.
2 Erstellen Sie auf Knoten 1 ein logisches Laufwerk für den Wiederherstellungsbereich. a Identifizieren Sie den Datenträger, der für den Wiederherstellungsbereich vorgesehen ist. b Führen Sie Schritt b bis Schritt h aus Schritt 1 durch. 3 Starten Sie alle anderen Knoten neu und melden Sie sich als Administrator an.
g Wählen Sie im Fenster Partition formatieren die Option Diese Partition nicht formatieren und klicken Sie auf Weiter. h Klicken Sie auf Fertig stellen. 2 Erstellen Sie ein logisches Laufwerk für den Wiederherstellungsbereich. a Identifizieren Sie den Datenträger, der für den Wiederherstellungsbereich vorgesehen ist. b Führen Sie Schritt b bis Schritt h aus Schritt 1 durch. 3 Starten Sie alle anderen Knoten neu und melden Sie sich als Administrator an.
Stichwortverzeichnis A G ASM, 208 Gebundenes Paar, 188 Gigabit-Ethernet-Switch, 169 D Datenträger Daten- und Sicherungsdatenträger, 203 OCR-Datenträger (Oracle Cluster Registry), 203 Redundanter Voting-Datenträger, 206 Voting-Datenträger, 203 Dell/EMC Fibre Channel, 169 Großes Paket, 199 Großrahmen, 199 H Hilfe Dell-Support, 165 Oracle Support, 165 DNS, 187 I E IP-Adresse Öffentliche IP-Adresse, 187 Virtuelle IP-Adresse, 187 EMC PowerPath, 195 EqualLogic-Begriffe Gruppe, 164 Mitglied, 164 Pool, 1
M S Modular Disk Storage Manager, 197 SAN, 170 SAS-Cluster, 175 SDL, 197 O OCFS, 208 T TCP Offload Engine, 189 P PowerConnect-Switch, 183 V Virtual Internet Protocol (VIP), 194 212 Stichwortverzeichnis
Dell PowerEdge システム Microsoft Windows Server x64 で使用する Oracle データ ベース ストレージ & ネットワ ークガイド バージョン 4.
メモ、注意、警告 メモ:コンピュータを使いやすくするための重要な情報を説明しています。 注意 : 手順に従わないと、ハードウェアの損傷やデータの損失につながる 可能性があることを示しています。 警告: 物的損害、けが、または死亡の原因となる可能性があることを示 しています。 ____________________ 本書の内容は予告なく変更されることがあります。 © 2009 ~ 2010 すべての著作権は Dell Inc. にあります。 Dell Inc. の書面による許可のない複製は、いかなる形態においても厳重に禁じられています。 本書に使用されている商標:Dell™、DELL ロゴ、EqualLogic™、PowerEdge™ および PowerVault™ は Dell Inc.
目次 1 概要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dell Oracle データベースの導入に必要 なマニュアル . . . . . . . . . . . . . . . . . . . . . . 219 . . . . . . . . . . . . . 220 . . . . . . . . . . . . . . . . . . . . . 221 本書で使用されている用語 . 困ったときは . デルサポート . . . . . . . . . . . . . . . . . . . Oracle のサポート . 2 ファイバーチャネルクラスタの セットアップ . . . . . . . . . . . . . . . . . . . . 221 223 . . . . . . . . Dell PowerVault MD3000 用の SAS クラスタのセットアップ . . . . . . . SAS ストレージシステムのケーブル接続 . 4 221 . . . . . .
5 6 Dell EqualLogic PS シリーズの ストレージシステム用の iSCSI クラスタのセットアップ . . . . . . . . . . . 237 Dell EqualLogic iSCSI ストレージシステ ムのケーブル接続 . . . . . . . . . . . . . . . . . . 237 Oracle RAC DB 用のネットワ ークおよびストレージの設定 . . . . . . . 241 パブリックおよびプライベートネッ トワークの設定 . . . . . . . . . . . . . . . . . . . . 241 プライベートネットワークの設定 とチーム化 . . . . . . . . . . . . . . . . . . . . 242 プライベートネットワークアダプ タ用の NIC チーム化の設定 . . . . . . . . . . 243 パブリックおよびプライベートネットワ ークアダプタ用の IP アドレスの設定 . . . .
ファームウェアの確認とアップグレード . . . . . 250 . . . . . . . . . 251 . . . . . . . . . . . . . . . . 251 EqualLogic iSCSI ストレージの設定 ボリュームの作成 iSCSI ネットワークの設定 . . . . . . . . . . . . ホストからボリュームへのアク セスの設定 . . . . . . . . . . . . Microsoft iSCSI Initiator の設定 . . . . . . . . . 253 . . . . . . . . . 254 ノードに対するストレージの割り当ての確認 . . . 256 . . . . . 257 共有ディスクの自動マウントオプ ションの有効化 . . . . . . . . . . . . . . . . . . 258 Windows Server 2003 で Clusterware 用の OCR ディスクと投票ディスク を準備する手順 . . . . . . . . . . . . . . . . .
目次
概要 Microsoft Windows で使用する Oracle データベースの『ストレージ & ネットワークガイド』は、以下に適用されます。 • Microsoft Windows Server 2003 R2 Standard/Enterprise x64 Edition または Windows Server 2008 SP2 Enterprise/Standard x64 Edition で使用する Oracle Database 10g R2 Enterprise Edition • Windows Server 2003 R2 SP2 Standard x64 Edition または Windows Server 2008 SP2 Standard x64 Edition で使用する Oracle Database 10g R2 Standard Edition Dell Oracle データベースの導入に必要なマ ニュアル Dell|Oracle データベースのインストールに必要なマニュアルは、以下の とおりです。 • 『Microsoft Windows Server x64 で使用する
本書で使用されている用語 本書では、「LUN」および「仮想ディスク」という語が使われています。 これらの用語は同義語であり、どちらを使用しても構いません。「LUN」 は Dell/EMC ファイバーチャネルストレージシステムの環境で、「仮想 ディスク」は Dell PowerVault SAS または iSCSI(Dell PowerVault MD3000 および Dell PowerVault MD3000i + Dell PowerVault MD1000 拡張)ストレージの環境で、通常使われる用語です。 Dell EqualLogic PS シリーズのストレージアレイには、ストレージ仮想化 テクノロジが搭載されています。これらのアレイの仕組みをよりよく理解 するには、アレイとその機能の説明に使用される用語を知っていると役に 立ちます。 220 • メンバー — 単一の PS シリーズアレイ。 • グループ — 集中管理が可能な 1 つまたは複数のメンバーのセット。 ホストサーバーは 1 つのグループ IP アドレスによってデータにアク セスします。 • プール — 1 つまたは複数のメン
困ったときは 本項では、ホワイトペーパー、サポートされている構成、トレーニング、 テクニカルサポートに関する情報、および一般的な情報を入手するために デルまたは Oracle に問い合わせる方法を説明しています。 デルサポート • システムの使い方の詳細については、システムコンポーネントに付 属のマニュアルを参照してください。 • 各種のホワイトペーパー、デルがサポートする設定、一般情報につ いては、dell.com/oracle を参照してください。 • ハードウェアおよび OS ソフトウェアに対するデルのテクニカルサ ポート、およびアップデートのダウンロードについては、 support.dell.
概要
ファイバーチャネルクラスタの セットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの安 全にお使いいただくための注意事項をお読みください。ベストプラクティ スの詳細については、dell.
表 2-1 ファイバーチャネルハードウェアの相互接続 クラスタのコン ポーネント 接続 Dell PowerEdge システムノード • CAT 5e(カテゴリ 5 エンハンスト)または CAT 6 ケーブ ル 1 本をパブリック NIC から LAN に接続 • CAT 5e または CAT 6 ケーブル 1 本をプライベートギガ ビット NIC からギガビットイーサネットスイッチに接続 • CAT 5e または CAT 6 ケーブル 1 本を冗長プライベートギ ガビット NIC から冗長ギガビットイーサネットスイッチ に接続 • 光ファイバーケーブル 1 本を HBA 0 からファイバーチャ ネルスイッチ 0 に接続 • 光ファイバーケーブル 1 本を HBA 1 からファイバーチャ ネルスイッチ 1 に接続 Dell/EMC ファイ • CAT 5e または CAT 6 ケーブル 2 本を LAN に接続 バーチャネルスト • 1 ~ 4 本の光ファイバーケーブルを各ファイバーチャネル レージシステム スイッチに接続。たとえば 4 ポート構成では、次のよう に接続します – 光ファイバーケー
Dell/EMC ファイバーチャネルストレージの ケーブル接続 Oracle クラスタストレージシステムは、必要に応じて 4 ポートの SAN 接 続構成が可能です。各構成について、以下の手順を参照してください。 SAN 接続のファイバーチャネルクラスタのセットアップに使うハード ウェア接続を 図 2-2 に示します。 図 2-2 SAN 接続の Dell/EMC ファイバーチャネルクラスタのケーブル接続 ノード 1 用の HBA ポート 2 個 ノード 2 用の HBA ポート 2 個 sw0 sw1 SP-B SP-A Dell/EMC CX4-480 ファイバーチャネルストレージ ファイバーチャネルクラスタのセットアップ 225
Oracle クラスタのストレージシステムを 4 ポートの SAN 接続で構成する には、以下の手順を実行します(図 2-2 を参照)。 1 1 本の光ケーブルを SP-A ポート 0 からファイバーチャネルスイッチ 0 に接続します。 2 1 本の光ケーブルを SP-A ポート 1 からファイバーチャネルスイッチ 1 に接続します。 3 1 本の光ケーブルを SP-B ポート 0 からファイバーチャネルスイッチ 1 に接続します。 4 1 本の光ケーブルを SP-B ポート 1 からファイバーチャネルスイッチ 0 に接続します。 5 1 本の光ケーブルをノード 1 の HBA 0 からファイバーチャネルス イッチ 0 に接続します。 6 1 本の光ケーブルをノード 1 の HBA 1 からファイバーチャネルス イッチ 1 に接続します。 7 1 本の光ケーブルを各追加ノードの HBA 0 からファイバーチャネル スイッチ 0 に接続します。 8 1 本の光ケーブルを各追加ノードの HBA 1 からファイバーチャネル スイッチ 1 に接続します。 226 ファイバーチャネルクラスタのセットアップ
Dell PowerVault MD3000 用の SAS クラスタのセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの安 全にお使いいただくための注意事項をお読みください。ベストプラクティ スの詳細については、dell.
表 3-1 SAS クラスタハードウェアの相互接続 クラスタのコンポーネント 接続 PowerEdge システムノード • CAT 5e/6 ケーブル 1 本をパブリック NIC から LAN に接続。 • CAT 5e/6 ケーブル 1 本をプライベートギガビッ ト NIC からギガビットイーサネットスイッチに 接続(プライベートネットワーク)。 • CAT 5e/6 ケーブル 1 本を冗長プライベートギガ ビット NIC から冗長ギガビットイーサネットス イッチに接続(プライベートネットワーク)。 • SAS 5/E を介して PowerVault MD3000 スト レージシステムノードに対して 2 本の SAS 接 続。229 ページの「SAS ストレージシステムの ケーブル接続」を参照してください。 PowerVault MD3000 • CAT 5e/6 ケーブル 2 本を LAN に接続(各スト レージプロセッサモジュールから 1 本ずつ)。 • SAS 5/E コントローラを介して各 PowerEdge シ ステムノードに対して 2 本の SAS 接続。 229 ページの「SAS ス
SAS ストレージシステムのケーブル接続 SAS クラスタは直接接続クラスタ内にのみ取り付け可能で、2 ノードまで に限定されます。 ノードを直接接続構成に設定するには、以下の手順に従います(図 3-2 を 参照)。 1 ノード 1 の SAS コントローラのポートと PowerVault MD3000 RAID エンクロージャ内の RAID コントローラ 0 の In-0 ポートを 1 本の SAS ケーブルで接続します。 2 ノード 1 のもう一方の SAS コントローラのポートと PowerVault MD3000 RAID エンクロージャ内の RAID コントローラ 1 の In-0 ポートを 1 本の SAS ケーブルで接続します。 3 ノード 2 の SAS コントローラのポートと PowerVault MD3000 RAID エンクロージャ内の RAID コントローラ 0 の In-1 ポートを 1 本の SAS ケーブルで接続します。 4 ノード 2 のもう一方の SAS コントローラのポートと PowerVault MD3000 RAID エンクロージャ内の RAID コントローラ 1 の
図 3-2 直接接続 SAS クラスタのケーブル接続 デュアル HBA ホストサーバー デュアル HBA ホストサーバー RAID コントローラモジュール 0 RAID コントローラモジュール 1 PowerVault MD3000 RAID エンク ロージャ MD1000 拡張エンクロージャ MD1000 拡張エンクロージャ 230 Dell PowerVault MD3000 用の SAS クラスタのセットアップ
Dell PowerVault MD3000i/MD1000 拡張エンクロージャ用の iSCSI クラスタのセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの安 全にお使いいただくための注意事項をお読みください。ベストプラクティ スの詳細については、dell.com/regulatory_compliance を参照してください。 本項では、Dell PowerEdge システムと Dell PowerVault MD3000i ハード ウェアおよびソフトウェアが Oracle RAC(Real Application Cluster)環 境で機能するように設定するための情報と手順を示します。 support.dell.
表 4-1 iSCSI ハードウェアの相互接続 (続き) クラスタのコンポーネ 接続 ント Dell PowerVault MD3000i ストレージ システム 1 台 • 管理インタフェース用に CAT 5e/6 ケーブル 2 本を LAN に接続(各ストレージプロセッサモジュールか ら 1 本)。 • iSCSI 相互接続用として、CAT 5e/6 ケーブル 2 本を各 ストレージプロセッサに接続。 メモ:Dell PowerVault MD3000i システムの詳細につい ては、Dell PowerVault MD3000i のセットアップマニュア ルを参照してください。 Dell PowerVault MD1000 拡張エンクロージャの必要に応じてシリアル MD1000 ストレージ拡 接続 SCSI(SAS)ケーブルの接続を追加。 張エンクロージャ 1 台 (オプション) 232 iSCSI クラスタのセットアップ
Dell PowerVault MD3000i ストレージシステム と Dell PowerVault MD1000 拡張エンクロー ジャを使用して iSCSI クラスタをセットアッ プする方法 iSCSI ストレージシステムのケーブル接続 直接接続の iSCSI クラスタは 2 ノードまでに限定されています。 図 4-1 iSCSI 直接接続クラスタのケーブル接続 2 ノードクラスタ スタンドアロンの ホストサーバー (1 台または 2 台) 企業、パブリック、 またはプライベー トネットワーク イーサネット管理 ポート(2) PowerVault MD3000i RAID エ ンクロージャ(デュアルコ ントローラ) CAT 5e/6(管理用のギガビット NIC) CAT 5e/6(ギガビット NIC iSCSI ポート) ノードを直接接続構成に設定するには、以下の手順に従います(図 4-1 を 参照)。 1 ノード 1 のポート(iSCSI HBA または NIC)と Dell PowerVault MD3000i ストレージエンクロージャ内の RAID コントローラ 0 の In-0 ポートを
4 ノード 2 のもう一方のポート(iSCSI HBA または NIC)と Dell PowerVault MD3000i ストレージエンクロージャ内の RAID コント ローラ 1 の In-1 ポートを 1 本の CAT 5e/6 ケーブルで接続します。 5 MD3000 の 2 個の出力ポートと 1 台目の Dell PowerVault MD1000 拡張エンクロージャの 2 個の入力ポートを 2 本の SAS ケーブルで接 続します(オプション)。 6 MD1000 の 2 個の出力ポートと 2 台目の Dell PowerVault MD1000 拡張エンクロージャの In-0 ポートを 2 本の SAS ケーブルで接続しま す(オプション)。 メモ:PowerVault MD1000 拡張エンクロージャの設定については、 support.dell.
ノードをスイッチ式の構成に設定するには、以下の手順に従います (図 4-2 を参照)。 1 ノード 1 のポート(iSCSI HBA または NIC)とネットワークスイッチ 1 のポートを 1 本の CAT 5e/6 ケーブルで接続します。 2 ノード 1 のポート(iSCSI HBA または NIC)とネットワークスイッチ 2 のポートを 1 本の CAT 5e/6 ケーブルで接続します。 3 ノード 2 のポート(iSCSI HBA または NIC)とネットワークスイッチ 1 のポートを 1 本の CAT 5e/6 ケーブルで接続します。 4 ノード 2 のポート(iSCSI HBA または NIC)とネットワークスイッチ 2 のポートを 1 本の CAT 5e/6 ケーブルで接続します。 5 スイッチ 1 のポートと Dell PowerVault MD3000i ストレージエンク ロージャ内の RAID コントローラ 0 の In-0 ポートを 1 本の CAT 5e/6 ケーブルで接続します。 6 スイッチ 1 のもう一方のポートと Dell PowerVault MD3000i スト レージエンク
iSCSI クラスタのセットアップ
Dell EqualLogic PS シリーズのス トレージシステム用の iSCSI ク ラスタのセットアップ 警告:本項の手順を開始する前に、システムに付属しているガイドの安 全にお使いいただくための注意事項をお読みください。ベストプラクティ スの詳細については、dell.
図 5-1 推奨ネットワーク構成 トランクリンク 操作パネル iSCSI SAN 用 Dell PowerConnect 54xx ギガビッ トイーサネットスイッチ Dell EqualLogic iSCSI ストレージ アレイの背面 iSCSI SAN 電源ユニット / 冷 却モジュール 1 コントロールモ ジュール 1 コントロールモ ジュール 0 電源ユニット / 冷 却モジュール 0 図 5-2 は、PS5000XV アレイ 3 つを使用した Oracle RAC 構成例の概略図 です。 表 5-1 ケーブルの色凡例 ケーブルの色 意味 青色 iSCSI SAN 茶色 Oracle RAC プライベート相互接続ネットワーク 黒色 パブリックネットワーク 表 5-1 には、ケーブルの色とその意味を示しています。PS5000XV スト レージアレイは、Oracle RAC データベース用の物理的なストレージ容量 を提供します。 238 iSCSI クラスタのセットアップ
図 5-2 PS5000XV アレイ 3 つを使用した Oracle RAC 構成例 パブリックネットワーク Oracle RAC プライベートネッ トワーク iSCSI SAN Dell PowerConnect 5324 ギガビットイーサネットス イッチ LAN/WAN Dell PowerConnect 5324 ギガビットイーサネット スイッチ 2 GB リンクアグリ ゲーショングループ Dell PowerEdge 2950 III サーバー 8 Gb アグリゲーショ ングループ Dell PowerConnect 5424/5448 ギガビットイーサネットスイッチ Dell EqualLogic PS5000XV iSCSI ス トレージアレイ ストレージメンバー oracle-member01 ストレージメンバー oracle-member02 OCR および投票ディ スクボリューム ストレージメンバー oracle-member03 FRA ボリューム データボリューム 記憶域プール RAID -5 記憶域プール RAID 10 ストレージグループ : orac
図 5-2 に示すように、oracle-group という名前のグループには PS5000XV のメンバー 3 つが含まれています。 • oracle-member01 • oracle-member02 • oraclemember03 初期化済みのメンバーは、RAID 10、RAID 5、または RAID 50 のいずれか に構成できます。EqualLogic アレイの初期化の詳細については、Dell EqualLogic の『ユーザーズガイド』を参照してください。 PS シリーズのストレージグループは、複数の階層またはプールに分割で きます。ストレージを階層化すると、ディスクリソースをより自在に割り 当てることができるようになります。メンバーを同時に複数のプールに割 り当てることはできません。メンバーをプールに割り当てたり、別のプー ルに移動する操作は簡単に行うことができ、データの可用性に何ら影響は ありません。プールは、ディスクのタイプ、速度、RAID レベル、アプリ ケーションのタイプなど、さまざまな基準に従って組むことができます。 図 5-2 では、プールはメンバーの RAID レベルに従
Oracle RAC DB 用のネットワーク およびストレージの設定 本項では、以下について説明します。 • パブリックおよびプライベートネットワークの設定。 • ストレージ構成の確認。 • Oracle Clusterware および Oracle データベース用の共有ストレージ の構成。 メモ:Oracle RAC では、順序化された一連の手順が必要とされます。ネッ トワークとストレージを最小限の時間で設定するには、本章の手順を順番 に実行してください。 パブリックおよびプライベートネットワーク の設定 メモ:クライアント接続および接続のフェイルオーバーのために、固有 のパブリックおよびプライベート IP アドレスを 1 つと、仮想 IP アドレス としての機能を果たす追加のパブリック IP アドレスを 1 つ、各ノードに設 定する必要があります。仮想 IP アドレスはパブリック IP アドレスと同じ サブネットに属していなければなりません。仮想 IP アドレスを含むすべ てのパブリック IP アドレスは、ドメインネームサービス(DNS)に登録す る必要があります。DNS サーバーが利用できな
表 6-1 NIC のポート割り当て NIC ポート 利用可能なポート 3 個 利用可能なポート 4 個 1 パブリック IP および仮想 IP パブリック IP 2 プライベート IP(NIC チーム) プライベート IP(NIC チーム) 3 プライベート IP(NIC チーム) プライベート IP(NIC チーム) 4 - 仮想 IP プライベートネットワークの設定とチーム化 クラスタを展開する前に、各クラスタノードにプライベート IP アドレス とホスト名を割り当てます。この手順により、ノードがプライベートイン タフェースを通じて確実に通信できるようになります。 2 ノードクラスタのネットワーク設定の例を 表 6-2 に示します。 メモ:この例では、すべてのクラスタノードのホストファイルにすべて の IP アドレスが登録されています。 メモ:プライベートネットワーク用の 2 個の接続済み NIC ポートは、別々 の PCI バス上に置かれている必要があります。たとえば、ボンディング済 みのペアは、1 枚のオンボード NIC カードと 1 枚のアドオン NIC カードで
プライベートネットワークアダプタ用の NIC チーム化の設定 メモ:このソリューションでは、TIE 対応 NIC の TOE(TCP オフロードエ ンジン)機能はサポートされません。 プライベートネットワークアダプタ用の NIC チーミングを設定するには、 以下の手順に従います。 1 ノード 1 で、NIC のチーム化に使用する 2 つのネットワークアダプ タを特定します。 2 選択した各ネットワークアダプタとプライベートネットワークス イッチをイーサネットケーブルで接続します。 3 ノード 1 が Broadcom NIC で構成されている場合は、手順 4 を参照 してください。ノード 1 が Intel NIC で構成されている場合は、次の 手順で NIC のチーム化を設定します。 a マイコンピュータ を右クリックし、管理 を選択します。 b コンピュータの管理 ウィンドウで、デバイスマネージャ を選択 します。 c ネットワークアダプタ タブを展開します。 d NIC のチーム化用として特定された Intel NIC を右クリックし、 プロパティ を選択します。 e チーム化 タブを
4 ノード 1 が Broadcom NIC で構成されている場合は、次の手順で NIC のチーム化を設定します。それ以外の場合は 手順 5 に進みます。 a スタート → プログラム → Broadcom→ Broadcom Advanced Control Suite 3 の順にクリックします。 Broadcom Advanced Control Suite 3 ウィンドウが表示され ます。 b チームの管理 をハイライト表示し、チーム をクリックして チー ムの作成 を選択します。 Broadcom Teaming Wizard(Broadcom チーム化ウィザー ド)ウィンドウが表示されます。 c Next(次へ)をクリックします。 d Enter the name for the team(チームの名前を入力します) フィールドで、Private と入力し、Next(次へ)をクリック します。 e Team Type(チームタイプ)フィールドで、Smart Load Balancing (TM) and Failover (SLB)(Smart Load Balancing (TM
i j Configuring Live Link(Live Link の設定)ウィンドウで、No (いいえ)を選択し、Next(次へ)をクリックします。 VLAN Support(VLAN のサポート)ウィンドウで、設定の必 要な VLAN があれば Add VLAN(VLAN の追加)を選択します。 そうでない場合は、Skip manage VLAN(VLAN の管理を省略 する)を選択します。 k Preview(プレビュー)をクリックし、NIC チームとアダプタを 確認します。確認を終えたら、Commit changes to system (変更をシステムに適用する)を選択し、ウィザードを終了しま す。Finish(完了)をクリックします。 l Information Message(情報メッセージ)ウィンドウで Yes (はい)をクリックして続行します。 m Broadcom Advanced Control Suite 3 ウィンドウで、File (ファイル)をクリックし、Exit(終了)をクリックします。 5 手順 1 ~ 手順 4 を残りのノードで繰り返します。 パブリック
c パブリックアダプタ名を Public に変更し、 を押しま す。 d 名前を変更するプライベート NIC チームを右クリックし、名前 の変更 を選択します。 e プライベート NIC チームの名前を Private に変更し、 を押します。 2 IP アドレスを設定します。 メモ:パブリックインタフェースにデフォルトゲートウェイを設定 する必要があります。そうしないと、Clusterware のインストールが 失敗する場合があります。 a スタート → 設定 → コントロールパネル → ネットワーク接続 → パブリック → プロパティ の順にクリックします。 b インターネットプロトコル(TCP/IP)をダブルクリックします。 c 次の IP アドレスを使う をクリックし、必要な IP アドレス、デ フォルトゲートウェイアドレス、および DNS サーバーの IP アド レスを入力し、OK をクリックします。 d パブリックプロパティ ウィンドウで、接続時に通知領域にアイ コンを表示する を選択します。 本項の手順を実行すると、システムトレイにネットワ
3 パブリックおよびプライベートネットワークアダプタが、ネット ワークサービスによってアクセスできる適切な順序で表示されてい ることを確認します。 a Windows デスクトップで、スタート → 設定 → コントロールパ ネル → ネットワーク接続 の順にクリックします。 b ネットワーク接続 ウィンドウで 詳細 をクリックし、詳細設定 を 選択します。 c アダプタとバインド タブを選択します。 d ネットワークアダプタが次の順序で表示されていることを確認し ます。 i.Public(パブリック) ii.Private(プライベート) iii.< その他のネットワークアダプタ > メモ:アダプタの順序を変更するには、上下の矢印をクリックして ください。 e OK をクリックします。 f ネットワーク接続 ウィンドウを閉じます。 4 すべてのノードで、 %SystemRoot%\system32\drivers\etc\hosts ファイルにパブ リック、プライベート、および仮想 IP アドレスとホスト名を追加し ます。 メモ:パブリック IP アドレスと仮想 IP アドレスが DN
表 6-3 IP アドレスとノード名 IP アドレス ノード名 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.
ストレージに必要なホストベースソフトウェ アのインストール Dell/EMC ファイバーチャネルストレージを取り付ける場合は、システム に付属の Dell/EMC のマニュアルを参照して EMC Naviagent ソフトウェ アをインストールします。 Dell PowerVault ストレージを取り付ける場合は、システムに付属の Dell PowerVault のマニュアルを参照して、Dell PowerVault Resource メ ディアから Modular Disk Storage Manager(MDSM)ソフトウェアをイ ンストールします。 メモ:Dell PowerVault MD3000i ストレージシステムには Microsoft iSCSI Software Initiator が必要です。Microsoft iSCSI Software Initiator は microsoft.
PowerVault MD3000/MD3000i 用のマルチパスドライバソフトウェ アのインストール SAS または iSCSI (PowerVault MD3000/MD3000i ストレージシステム) クラスタの場合、マルチパスソフトウェアは 249 ページの「ストレージ に必要なホストベースソフトウェアのインストール」の説明に従ってホ ストにインストール済みのはずです。 EqualLogic iSCSI ストレージアレイ用のマルチパスドライバソフト ウェアのインストール 詳細については、253 ページの「Dell EqualLogic Host Integration Tool (HIT)キットのインストールと設定」を参照してください。 マルチパスドライバの機能の確認 マルチパスドライバの機能の確認は、次の手順で行います。 1 マイコンピュータ を右クリックし、管理 を選択します。 2 記憶域 を展開し、ディスクの管理 をクリックします。 ストレージ内に割り当てられた LUN ごとに 1 台のディスクが表示さ れます。 3 各 LUN が ベーシック ディスクとして設定されていることを確認し ます
EqualLogic iSCSI ストレージの設定 ボリュームの作成 データを保存する前に、PS5000XV の物理ディスクを設定して、ボリュー ムと呼ばれる使用可能なコンポーネントにする必要があります。ボリュー ムはストレージプールを構成する一部であり、特定のサイズ、アクセスコ ントロール、その他の属性を持っています。ボリュームは複数のディスク とグループメンバー間に分散させることができ、ネットワーク上では iSCSI ターゲットとして認識されます。ボリュームはプールに割り当てら れます。別のプールに移動することも容易で、データの可用性に何ら影響 はありません。また、プール内のストレージハードウェアリソースの総合 的な負荷に基づいて、プール内で自動データ配置と自動負荷バランシング が行われます。 表 6-4 Oracle RAC 設定用のボリューム ボリューム 最小サイズ RAID パーティショ ンの数 第 1 領域ボ リューム 3 GB 10 第 2 領域ボ リューム データベー スよりも大 きいこと 第 3 領域ボ リューム 第 2 領域ボ 5 リュームの サイズの 2 倍以上 10
表 6-4 はボリューム構成の一例を示したものです。PS5000XV アレイ内に ボリュームを作成し、すべてのホスト iSCSI ネットワークインタフェース がボリュームにアクセスできるようにアクセスリストを作成します。 iSCSI ネットワークの設定 最適なパフォーマンスが得られるように、iSCSI トラフィック用のホスト ネットワークインタフェースが Flow Control(フロー制御)と Jumbo (ジャンボ)フレームを使用するように設定することをお勧めします。 Flow Control(フロー制御)と Jumbo(ジャンボ)フレームの設定は、 以下の手順で行います。 1 スタート → 設定 → ネットワーク接続 の順にクリックします。 2 iSCSI ネットワークインタフェースをハイライト表示し、Properties (プロパティ)を右クリックします。 3 Configure(設定)をクリックします。 4 Advanced(詳細)をクリックします。 5 Jumbo Packet(ジャンボパケット)をハイライト表示し、値を 9014 バイトに設定します。 6 Performance Options
ホストからボリュームへのアクセスの設定 Dell EqualLogic Host Integration Tool(HIT)キットのインストールと設定 Dell EqualLogic Host Integration Tool(HIT)キットのインストールと設 定は、以下の手順で行います。 1 最新の HIT ツールキットをデータベースサーバーにダウンロードし ます。 2 Setup64.
11 iSCSI ネットワークのサブネットを Subnets included for MPIO (MPIO 用に含まれているサブネット)の下に移動します。その他す べてのネットワークのサブネットを Subnets excluded from MPIO(MPIO から除外されたサブネット)の下に移動します。デ フォルトの負荷バランシングポリシー(Least Queue Depth)(最小 のキューの深さ)を選択します。Finish(完了)をクリックします。 12 クラスタ内の残りのすべてのホストで 手順 1 ~ 手順 11 を繰り返し ます。 Microsoft iSCSI Initiator の設定 Microsoft iSCSI Initiator の設定は、以下の手順で行います。 1 デスクトップで Microsoft iSCSI Initiator アイコンをダブルク リックします。 2 iSCSI Initiator Properties(iSCSI イニシエータのプロパティ) ウィンドウの Discovery(検出)タブにある EqualLogic グループ アドレスの IP アドレスは、HIT
6 Advanced Settings(詳細設定)ウィンドウの General(全般) タブで、以下の設定を行います。 a Local adapter(ローカルアダプタ)ドロップダウンメニューで Microsoft iSCSI Initiator(Microsoft iSCSI イニシエータ)を 選択します。 b Source IP(送信元 IP)ドロップダウンメニューで iSCSI イニシ エータの IP アドレスを選択します。 c Target Portal(ターゲットポータル)ドロップダウンメニュー で EqualLogic group IP(EqualLogic グループ IP)アドレスを 選択します。 d CHAP logon information(CHAP ログオン情報)チェック ボックスにチェックを入れます。 e User name(ユーザー名)ボックスに EqualLogic ストレージで 定義した CHAP ユーザー名を入力します。 f Target secret(ターゲットシークレット)ボックスに EqualLogic ストレージで定義した CHAP パスワードを入
ノードに対するストレージの割り当ての確認 ノードに対するストレージの割り当ての確認は、以下の手順で行います。 1 Windows デスクトップの マイコンピュータ を右クリックし 管理 を 選択します。 2 コンピュータの管理 ウィンドウで、デバイスマネージャ をクリック します。 3 ディスクドライブ を展開します。 4 ディスクドライブ の下で、ストレージに割り当てられている各 LUN または仮想ディスクについて、4 台の SCSI ディスクデバイスが表示 されていることを確認します。 5 記憶域 を展開し、ディスクの管理 をクリックします。 ディスクの初期化と変換ウィザードの開始 の画面が表示されたら、 手順 a ~ 手順 d を実行します。それ以外の場合は、手順 6 に進んで ください。 a ディスクの初期化と変換ウィザードの開始 ウィンドウで、次へ をクリックします。 b ディスク ウィンドウの 初期化するディスクの選択 ウィンドウ で、お使いのストレージ LUN/ 仮想ディスクと関連するディスク を選択し、次へ をクリックします。 c 変換するディスクの選択 ウィンドウで、手順 b で選
Oracle Clusterware、データベース、バック アップ用のディスクの準備 本項では、以下のディスク用に論理ドライブを作成するための情報を提供 します。 • Oracle Cluster Registry(OCR)ディスク — クラスタ設定情報が 格納されています。 • 投票ディスク — 1 つまたは複数のノードでプライベートネットワー クまたは接続ストレージが使用できない場合に、クラスタノード間 にアービトレーションを提供します。 • データディスクとバックアップディスク — データベースを作成し (データディスク)、バックアップとログデータを保存する(バック アップディスク)ためのストレージ領域を提供します。 本書で説明されているクラスタ設定を行う際に、共有ストレージ上にパー ティションを作成します。パーティションの作成時には、接続されている ストレージシステム内に作成された LUN または論理ディスクをクラスタ ノードが検知できることを確認します。 Oracle Clusterware 用のディスクを準備するには、OCR ディスク、投票 ディスク、データディスク、およびフラッシュリ
共有ディスクの自動マウントオプションの有効化 共有ディスクの自動マウントオプションを有効にするには、以下の手順に 従います。 1 ノード 1 で スタート をクリックし、ファイル名を指定して実行 を 選択します。 2 ファイル名を指定して実行 フィールドに cmd と入力し、OK をク リックします。 3 コマンドプロンプトで、diskpart と入力し、 を押します。 4 DISKPART コマンドプロンプトで automount enable と入力し、 を押します。 次のメッセージが表示されます。Automatic mounting of new volumes enabled.
5 パーティションの種類を選択 ウィンドウで、拡張パーティション を 選択し、次へ をクリックします。 6 パーティションサイズの指定 ウィンドウで、デフォルトのパーティ ションサイズをそのまま使用し、次へ をクリックします。 7 完了 をクリックします。 手順 3 で選択したディスクパーティション領域が、拡張パーティ ションとして設定されます。 8 クラスタノードに割り当てられているすべての共有ディスクで、手 順 3 ~ 手順 7 を繰り返します。 9 OCR ディスク用に論理ドライブを作成します。 a OCR と投票ディスク(2 GB LUN/ 仮想ディスク)用として識別 されたディスクのパーティション領域で空き領域を右クリック し、新しい論理ドライブ を選択します。 新しいパーティションウィザードの開始 が表示されます。 b 次へ をクリックします。 c パーティションの種類を選択 ウィンドウで 論理ドライブ を選択 し、次へ をクリックします。 d パーティションサイズの指定 ウィンドウの パーティションサイ ズ(MB)フィールドに 120 と入力し、次へ をクリックします。 e ド
10 投票ディスク用に論理ドライブを作成します。 a OCR と投票ディスク(2 GB LUN/ 仮想ディスク)用として識別 されたディスクのパーティション領域で空き領域を右クリック し、新しい論理ドライブ を選択します。 新しいパーティションウィザードの開始 が表示されます。 b 次へ をクリックします。 c パーティションの種類を選択 ウィンドウで 論理ドライブ を選択 し、次へ をクリックします。 d パーティションサイズの指定 ウィンドウの パーティションサイ ズ(MB)フィールドに 50 と入力し、次へ をクリックします。 e ドライブ文字またはパスの割り当て ウィンドウで、ドライブ文 字またはドライブパスを割り当てない を選択し、次へ をクリッ クします。 f パーティションのフォーマット ウィンドウで、このパーティ ションをフォーマットしない を選択し、次へ をクリックします。 g 完了 をクリックします。 h 手順 a ~ 手順 g を繰り返して、追加の投票ディスクパーティ ションを 2 つ作成します。 メモ:冗長投票ディスクと OCR を使用している場合は、冗
3 list disk と入力すると、次の表が表示されます。 DISKPART> list disk Disk ### Status Size Free(空き) (ディスク番号) (ステータス) (サイズ) Disk 0 Online (オンライン) 37 GB 0 MB Disk 1 Online (オンライン) 2048 MB 2014 MB Disk 2 Online (オンライン) 100 GB 100 GB Disk 3 Online (オンライン) 200 GB 200 GB 4 ターゲットディスクの select disk [ ディスク番号 ] を入力しま す。 メモ:以下の手順では、MBR ディスク用のパーティションと論理 ディスクを作成する方法を説明します。 5 create partition extended と入力し、Enter を押します。 6 create partition logical size=< ボリュームサイズ(MB)> と入力し、Enter を押します。 OCFS を使用したデータベースストレージ用のデータベースディ スクとフラッシュリ
OCFS(Oracle Clustered File System)ストレージディスクの作成に使用 する論理ドライブは、以下の手順で作成します。 1 ノード 1 で、データベース用に 1 つの論理ドライブを作成します。 a Oracle データベースに割り当てられたディスクを確認します。 b ディスクパーティション領域で空き領域を右クリックし、新しい 論理ドライブ を選択します。 新しいパーティションウィザードの開始 が表示されます。 c 次へ をクリックします。 d パーティションの種類を選択 ウィンドウで 論理ドライブ を選択 し、次へ をクリックします。 e パーティションサイズの指定 ウィンドウで パーティションサイ ズ(MB)フィールドに適切なサイズを入力し、次へ をクリック します。 f ドライブ文字またはパスの割り当て ウィンドウで、ドライブ文 字またはドライブパスを割り当てない を選択し、次へ をクリッ クします。 g パーティションのフォーマット ウィンドウで、このパーティ ションをフォーマットしない を選択し、次へ をクリックします。 h 完了 をクリックしま
ASM を使用したデータベースストレージ用のデータベースディ スクとフラッシュリカバリ領域の準備 メモ:OCFS ストレージディスクの作成に使用する論理ドライブを作成す る場合は、次の手順を省略して、261 ページの「OCFS を使用したデータ ベースストレージ用のデータベースディスクとフラッシュリカバリ領域の 準備」の手順に従ってください。 ASM ディスクストレージの作成に使用する論理ドライブは、以下の手順 で作成します。 1 データベース用に 1 つの論理ドライブを作成します。 a Oracle データベースに割り当てられたディスクを確認します。 b ディスクパーティション領域で空き領域を右クリックし、新しい 論理ドライブ を選択します。 新しいパーティションウィザードの開始 が表示されます。 c 次へ をクリックします。 d パーティションの種類を選択 ウィンドウで 論理ドライブ を選択 し、次へ をクリックします。 e パーティションサイズの指定 ウィンドウで パーティションサイ ズ(MB)フィールドに適切なサイズを入力し、次へ をクリック します。 f ドライブ文字またはパス
割り当て済みのドライブ文字の削除 割り当てられたドライブ文字を削除するには、以下の手順に従います。 1 各ノードの Windows デスクトップで、マイコンピュータ を右ク リックし、管理 を選択します。 2 コンピュータの管理 ウィンドウで、記憶域 を展開し、ディスクの管 理 をクリックします。 3 258 ページの「Windows Server 2003 で Clusterware 用の OCR ディ スクと投票ディスクを準備する手順」で作成したドライブにドライ ブ文字が割り当てられている場合は、次の手順を実行します。 264 a 論理ドライブを右クリックし、ドライブ文字とパスの変更 を選択 します。 b ドライブ文字とパスの変更 ウィンドウで、ドライブ文字を選択 し、削除 をクリックします。 c 確認 ウィンドウで、はい をクリックします。 d ストレージパーティション上の残りの論理ドライブに対して、手 順 a ~ 手順 c を繰り返します。 Oracle RAC DB 用のネットワークおよびストレージの設定
索引 A M ASM, 261 Modular Disk Storage Manager, 250 D Dell/EMC ファイバーチ ャネル , 224 O OCFS, 262 DNS, 241 P E EMC PowerPath, 249 EqualLogic 用語 グループ , 220 プール , 220 ボリューム , 220 メンバー , 220 I IP アドレス 仮想 IP アドレス , 241 パブリック IP アドレス , 241 iSCSI HBA, 233 PowerConnect スイッチ , 237 S SAN, 225 SAS クラスタ , 229 SDL, 250 T TCP オフロードエンジン , 243 か 仮想インターネットプロ トコル , 248 索引 265
き へ ギガビットイーサネットスイッ チ , 224 ヘルプ Oracle サポート , 221 デルサポート , 221 け ケーブル CAT 5e, 224 CAT 6, 224 SAS ケーブル , 229 し ジャンボパケット , 252 ジャンボフレーム , 252 て ディスク Oracle Cluster Registry ディス ク , 257 冗長投票ディスク , 260 データディスクとバックアップ ディスク , 257 投票ディスク , 257 ふ フロー制御 , 252 266 索引 ほ ボンディング済みのペア , 242
Sistemas Dell PowerEdge Base de datos Oracle en Microsoft Windows Server x64 Guía de almacenamiento y redes versión 4.
Notas, precauciones y avisos NOTA: Una NOTA proporciona información importante que le ayudará a utilizar mejor el ordenador. PRECAUCIÓN: Un mensaje de PRECAUCIÓN indica la posibilidad de daños en el hardware o la pérdida de datos si no se siguen las instrucciones. AVISO: Un mensaje de AVISO indica el riesgo de daños materiales, lesiones o incluso la muerte. ____________________ La información contenida en esta publicación puede modificarse sin previo aviso. © 2009-2010 Dell Inc.
Contenido 1 Información general . . . . . . . 273 Terminología utilizada en este documento . . . . . . . 274 . . . . . . . . . . . . . . . . . . . 275 Asistencia de Dell 275 . . . . . . . . . . . . . . . . . Asistencia de Oracle 275 . . . . . . . . . . . . . . . . Configuración del clúster Fibre Channel . . . . . . . . . . . . . . . . . . . . Cableado del sistema de almacenamiento Dell/EMC Fibre Channel . . . . . . . . . .
4 Configuración del clúster iSCSI para Dell PowerVault MD3000i y los alojamientos de expansión PowerVault MD1000 . . . . . . . . . . . . . . . 287 Configuración del clúster iSCSI con un sistema de almacenamiento Dell PowerVault MD3000i y alojamientos de expansión Dell PowerVault MD1000 . . . . . . . . 289 . . . . . . . . . . . . . 289 Cableado del sistema de almacenamiento iSCSI . 5 Configuración del clúster iSCSI para los sistemas de almacenamiento Dell EqualLogic serie PS . . . . . . . . . . .
Instalación del software basado en host necesario para el almacenamiento . . . . . . . . . . . Instalación del software de múltiples rutas para el almacenamiento . . . . . . . . . . . Instalación de EMC PowerPath en sistemas Dell/EMC . . . . . . . . . . . . . . . 305 . . . . . . . . 305 Instalación del software de controlador de múltiples rutas para PowerVault MD3000 o PowerVault MD3000i . . . . . . . . . . . .
Preparación de los discos de software de clúster Oracle, de base de datos y de copia de seguridad Habilitación de la opción de montaje automático para los discos compartidos . 7 272 313 . . . . 314 Preparación de los discos OCR y de votación para el software de clúster en Windows Server 2003 . . . . . . . . . . . . . 314 Preparación de los discos OCR y de votación para el software de clúster en Windows Server 2008 . . . . . . . . . . . . .
Información general La guía de almacenamiento y redes para la base de datos Oracle en Microsoft Windows se aplica a: • Base de datos Oracle 10g R2 Enterprise Edition en Microsoft Windows Server 2003 R2 Standard o Enterprise x64 Edition o Windows Server 2008 SP2 Enterprise o Standard x64 Edition. • Base de datos Oracle 10g R2 Standard Edition en Windows Server 2003 R2 SP2 Standard x64 Edition o Windows Server 2008 SP2 Standard x64 Edition.
Terminología utilizada en este documento En este documento se utilizan los términos número de unidad lógica (LUN) y disco virtual. Dichos términos son sinónimos y pueden utilizarse indistintamente. El término LUN suele utilizarse en un entorno de sistema de almacenamiento Dell/EMC Fibre Channel, mientras que disco virtual suele emplearse en un entorno de almacenamiento SAS o iSCSI Dell PowerVault (Dell PowerVault MD3000 y Dell PowerVault MD3000i con alojamiento de expansión Dell PowerVault MD1000).
Obtención de ayuda En esta sección se proporciona información sobre cómo ponerse en contacto con Dell u Oracle para obtener documentos técnicos, configuraciones admitidas, formación, asistencia técnica e información general. Asistencia de Dell • Para obtener información detallada sobre el uso del sistema, consulte la documentación incluida con los componentes del sistema. • En dell.com/oracle encontrará documentos técnicos, las configuraciones admitidas por Dell e información general.
Información general
Configuración del clúster Fibre Channel AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite dell.com/regulatory_compliance.
Ilustración 2-1. Conexiones de hardware para un clúster Fibre Channel de conexión mediante SAN Sistemas cliente Conmutadores Ethernet Gigabit (red privada) LAN/WAN Sistemas Dell PowerEdge (base de datos Oracle) Conmutadores Dell/EMC Fibre Channel (SAN) Conmutadores Dell/EMC Fibre Channel CAT 5e/6 (NIC pública) CAT 5e/6 (NIC Gigabit de cobre) Cables de fibra óptica Cables de fibra óptica adicionales Tabla 2-1.
Tabla 2-1. Interconexiones de hardware Fibre Channel (continuación) Componente del clúster Conexiones Sistema de almacenamiento Dell/EMC Fibre Channel • Dos cables CAT 5e o CAT 6 conectados a la LAN • De una a cuatro conexiones de cable de fibra óptica a cada conmutador Fibre Channel.
Cableado del sistema de almacenamiento Dell/EMC Fibre Channel Puede configurar el sistema de almacenamiento del clúster Oracle en una configuración de conexión mediante red de área de almacenamiento (SAN) de cuatro puertos en función de sus necesidades. A continuación se describen los procedimientos relativos a ambas configuraciones. En la ilustración 2-2 se muestran las conexiones de hardware utilizadas al configurar un clúster Fibre Channel de conexión mediante SAN. Ilustración 2-2.
Para configurar el sistema de almacenamiento del clúster Oracle en una configuración de conexión mediante SAN de cuatro puertos (vea la ilustración 2-2): 1 Conecte un cable óptico del puerto 0 de SP-A al conmutador 0 Fibre Channel. 2 Conecte un cable óptico del puerto 1 de SP-A al conmutador 1 Fibre Channel. 3 Conecte un cable óptico del puerto 0 de SP-B al conmutador 1 Fibre Channel. 4 Conecte un cable óptico del puerto 1 de SP-B al conmutador 0 Fibre Channel.
Configuración del clúster Fibre Channel
Configuración del clúster SAS para Dell PowerVault MD3000 AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite dell.com/regulatory_compliance.
Tabla 3-1. Interconexiones de hardware del clúster SAS Componente del clúster Conexiones Nodo del sistema PowerEdge • Un cable CAT 5e/6 de la NIC pública a la red de área local (LAN). • Un cable CAT 5e/6 de la NIC Gigabit privada al conmutador Ethernet Gigabit (red privada). • Un cable CAT 5e/6 de la NIC Gigabit privada redundante al conmutador Ethernet Gigabit redundante (red privada). • Dos conexiones SAS a un nodo del sistema de almacenamiento PowerVault MD3000 mediante SAS 5/E.
Cableado del sistema de almacenamiento SAS Los clústeres SAS sólo se pueden instalar en un clúster de conexión directa y están limitados a dos nodos únicamente. Para configurar los nodos en una configuración de conexión directa (vea la ilustración 3-2): 1 Conecte un cable SAS de un puerto de la controladora SAS del nodo 1 al puerto In-0 de la controladora RAID 0 en el alojamiento RAID PowerVault MD3000.
Ilustración 3-2.
Configuración del clúster iSCSI para Dell PowerVault MD3000i y los alojamientos de expansión PowerVault MD1000 AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite dell.com/regulatory_compliance.
Tabla 4-1. Interconexiones de hardware iSCSI (continuación) Componente del clúster Conexiones Un sistema de almacenamiento Dell PowerVault MD3000i • Dos cables CAT 5e/6 conectados a la LAN (uno desde cada módulo del procesador de almacenamiento) para la interfaz de administración. • Dos cables CAT 5e/6 por procesador de almacenamiento para la interconexión iSCSI.
Configuración del clúster iSCSI con un sistema de almacenamiento Dell PowerVault MD3000i y alojamientos de expansión Dell PowerVault MD1000 Cableado del sistema de almacenamiento iSCSI Los clústeres iSCSI de conexión directa están limitados a dos nodos únicamente. Ilustración 4-1.
4 Conecte un cable CAT 5e/6 del otro puerto (NIC o HBA iSCSI) del nodo 2 al puerto In-1 de la controladora RAID 1 en el alojamiento para almacenamiento Dell PowerVault MD3000i. 5 Conecte dos cables SAS de los dos puertos de salida de MD3000 a los dos puertos de entrada del primer alojamiento de expansión Dell PowerVault MD1000 (opcional). 6 Conecte dos cables SAS de los dos puertos de salida de MD1000 a los puertos In-0 del segundo alojamiento de expansión Dell PowerVault MD1000 (opcional).
Para configurar los nodos en una configuración conmutada (vea la ilustración 4-2): 1 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 1 al puerto del conmutador de red 1. 2 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 1 al puerto del conmutador de red 2. 3 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 2 al puerto del conmutador de red 1. 4 Conecte un cable CAT 5e/6 de un puerto (NIC o HBA iSCSI) del nodo 2 al puerto del conmutador de red 2.
Configuración del clúster iSCSI
Configuración del clúster iSCSI para los sistemas de almacenamiento Dell EqualLogic serie PS AVISO: Antes de iniciar cualquiera de los procedimientos descritos en esta sección, lea la información de seguridad suministrada con el sistema. Para obtener información adicional sobre prácticas recomendadas, visite dell.com/regulatory_compliance.
Ilustración 5-1.
Ilustración 5-2.
Tal como se muestra en la ilustración 5-2, el grupo denominado oracle-group incluye tres miembros PS5000XV: • oracle-member01 • oracle-member02 • oraclemember03 Al inicializar un miembro, se puede configurar con RAID 10, RAID 5 o RAID 50. Para obtener más información sobre cómo inicializar una matriz EqualLogic, consulte la Guía del usuario de Dell EqualLogic. Un grupo de almacenamiento de la serie PS se puede segregar en varios niveles en cascada o bloques.
Configuración de la red y el almacenamiento para la base de datos Oracle RAC En esta sección se proporciona información sobre: • Configuración de las redes pública y privada. • Verificación de la configuración del almacenamiento. • Configuración del almacenamiento compartido para el software de clúster Oracle y la base de datos Oracle. NOTA: Oracle RAC requiere una lista ordenada de procedimientos.
Tabla 6-1. Asignaciones de puertos NIC Puerto NIC Tres puertos disponibles Cuatro puertos disponibles 1 IP pública e IP virtual IP pública 2 IP privada (grupo de NIC) IP privada (grupo de NIC) 3 IP privada (grupo de NIC) IP privada (grupo de NIC) 4 ND IP virtual Configuración y agrupación de la red privada Antes de implantar el clúster, asigne una dirección IP y un nombre de host privados a cada nodo del clúster.
Configuración de la agrupación de NIC para los adaptadores de red privada NOTA: Esta solución no admite la función de motor de descarga TPC (TOE) de una NIC compatible con TOE. Para configurar la agrupación de NIC para los adaptadores de red privada: 1 En el nodo 1, identifique los dos adaptadores de red que se utilizarán para la agrupación de NIC. 2 Conecte un cable Ethernet de cada adaptador de red seleccionado al conmutador de la red privada.
k En la ventana Team Properties (Propiedades del grupo), haga clic en OK (Aceptar). l En la ventana Intel NIC’s Properties (Propiedades de NIC Intel), haga clic en OK (Aceptar). m Cierre la ventana Computer Management (Administración de equipos). 4 Si el nodo 1 está configurado con NIC Broadcom, realice los pasos siguientes para configurar la agrupación de NIC. En caso contrario, vaya al paso 5. a Haga clic en Start (Inicio)→ Programs (Programas)→ Broadcom→ Broadcom Advanced Control Suite 3.
g Haga clic en Next (Siguiente). h En la ventana Designating a Standby Member (Designación de un miembro en espera), seleccione una NIC o bien Do not configure a standby member (No configurar un miembro en espera). i En la ventana Configuring Live Link (Configuración de enlace activo), seleccione No y haga clic en Next (Siguiente). j En la ventana VLAN Support (Compatibilidad con VLAN), seleccione Add VLAN (Añadir VLAN) si necesita configurar una VLAN.
NOTA: Cuando configure los adaptadores de red en los nodos del clúster, utilice nombres idénticos para los adaptadores públicos y los adaptadores privados en todos los nodos del clúster. De lo contrario, el programa de instalación de la base de datos Oracle generará un error y no será posible completar el procedimiento de instalación. c Cambie el nombre del adaptador público a Público y pulse .
3 Asegúrese de que los adaptadores de red pública y privada aparecen en el orden adecuado para el acceso mediante servicios de red. a En el escritorio de Windows, haga clic en Start (Inicio)→ Settings (Configuración)→ Control Panel (Panel de control)→ Network Connections (Conexiones de red). b En la ventana Network Connections (Conexiones de red), haga clic en Advanced (Opciones avanzadas) y seleccione Advanced Settings (Configuración avanzada).
Tabla 6-3. Dirección IP y nombres de los nodos Dirección IP Nombre del nodo 155.16.170.1 rac1 155.16.170.2 rac2 10.10.10.1 rac1-priv 10.10.10.2 rac2-priv 155.16.170.201 rac1-vip 155.16.170.202 rac2-vip NOTA: No es necesario registrar las direcciones IP privadas con el servidor DNS, ya que no se puede acceder a las direcciones IP de la red privada desde la red pública. 5 Repita del paso 1 al paso 4 en los nodos restantes.
Instalación del software basado en host necesario para el almacenamiento Si va a instalar un sistema de almacenamiento Dell/EMC Fibre Channel, consulte la documentación de Dell/EMC suministrada con el sistema para instalar el software EMC Naviagent. Si va a instalar un sistema de almacenamiento Dell PowerVault, consulte la documentación de Dell PowerVault suministrada con el sistema para instalar el software Modular Disk Storage Manager (MDSM) desde el soporte multimedia de recursos de Dell PowerVault.
Instalación del software de controlador de múltiples rutas para PowerVault MD3000 o PowerVault MD3000i En el caso de un clúster SAS o iSCSI (sistema de almacenamiento PowerVault MD3000 o PowerVault MD3000i), el software de múltiples rutas ya debería estar instalado en los hosts según se indica en la sección “Instalación del software basado en host necesario para el almacenamiento” en la página 305.
Verificación y actualización del firmware • Detecte el almacenamiento de conexión directa del servidor host mediante el software MDSM que está instalado en el servidor host. • Compruebe que la versión del firmware de los componentes de almacenamiento siguientes es la mínima necesaria. Consulte la lista de soluciones disponibles (SDL) para conocer los requisitos de la versión del firmware.
Tabla 6-4.
Configuración de redes iSCSI Se recomienda configurar las interfaces de red del host para el tráfico iSCSI de modo que utilicen el control de flujo y la trama gigante para obtener un rendimiento óptimo. Para definir el control de flujo y la trama gigante: 1 Seleccione Start (Inicio)→ Settings (Configuración)→ Network Connections (Conexiones de red). 2 Resalte la interfaz de red iSCSI y haga clic con el botón derecho del ratón en Properties (Propiedades). 3 Haga clic en Configure (Configurar).
4 En la ventana License Agreements (Contratos de licencia), seleccione I accept the terms of all the license agreements (Acepto los términos de todos los contratos de licencia) y haga clic en Next (Siguiente). 5 En la ventana Installation Type (Tipo de instalación), haga clic en Next (Siguiente). 6 En la ventana Ready to install the components (Preparado para instalar los componentes), haga clic en Install (Instalar).
3 En la ficha Targets (Destinos) de la ventana iSCSI Initiator Properties (Propiedades del iniciador iSCSI), haga clic en un volumen creado para la base de datos Oracle. Haga clic en Log On (Iniciar sesión). 4 En la ventana Log On to Target (Iniciar sesión en destino), marque las dos casillas que aparecen junto a las opciones Automatically restore this connection when the system boots (Restaurar automáticamente esta conexión cuando el sistema arranque) y Enable multi-path (Habilitar múltiples rutas).
Verificación de la asignación de almacenamiento a los nodos Para verificar la asignación de almacenamiento a los nodos: 1 En el escritorio de Windows, haga clic con el botón derecho del ratón en My Computer (Mi PC) y seleccione Manage (Administrar). 2 En la ventana Computer Management (Administración de equipos), haga clic en Device Manager (Administrador de dispositivos). 3 Expanda Disk drives (Unidades de disco).
6 En la ventana Disk Management (Administración de discos), compruebe que aparezcan cuatro discos. Los discos deben ser de tamaño similar entre ellos y respecto a los discos virtuales/LUN que están asignados a los nodos en el sistema de almacenamiento. 7 Repita del paso 1 al paso 6 en los nodos restantes.
Habilitación de la opción de montaje automático para los discos compartidos Para habilitar la opción de montaje automático para los discos compartidos: 1 En el nodo 1, haga clic en Start (Inicio) y seleccione Run (Ejecutar). 2 En el campo Run (Ejecutar), escriba cmd y haga clic en OK (Aceptar). 3 En el indicador de comandos, escriba diskpart y pulse . 4 En el indicador de comandos de DISKPART, escriba automount enable y pulse .
5 En la ventana Select Partition Type (Seleccionar el tipo de partición), seleccione Extended partition (Partición extendida) y haga clic en Next (Siguiente). 6 En la ventana Specify Partition Size (Especificar el tamaño de la partición), acepte el tamaño predeterminado y haga clic en Next (Siguiente). 7 Haga clic en Finish (Finalizar). El área de partición de disco que ha seleccionado en el paso 3 se configura como partición extendida.
10 Cree una unidad lógica para el disco de votación. a En el área de partición del disco identificada para los discos OCR y de votación (disco virtual/LUN de 2 GB), haga clic con el botón derecho del ratón en el espacio libre y seleccione New Logical Drive (Unidad lógica nueva). Aparece la ventana Welcome to the New Partition Wizard (Éste es el Asistente para partición nueva). b Haga clic en Next (Siguiente).
Preparación de los discos OCR y de votación para el software de clúster en Windows Server 2008 NOTA: Los pasos para crear particiones extendidas y unidades lógicas son los mismos que los pasos de Windows Server 2003; sin embargo, dichos pasos ya no se pueden realizar en Windows Server 2008 desde la GUI de Disk Management (Administración de discos).
Preparación del disco de base de datos y el área de recuperación flash para el almacenamiento de base de datos con OCFS NOTA: Cuando se utiliza Automatic Storage Management (ASM), el grupo de discos de datos ASM debería ser más grande que la base de datos (varios LUN) y el grupo de discos de área de recuperación flash ASM debería tener como mínimo dos veces el tamaño del grupo de discos de datos.
2 En el nodo 1, cree una unidad lógica para el área de recuperación flash. a Localice el disco asignado para el área de recuperación flash. b Realice del paso b al paso h indicados en el paso 1. 3 Reinicie los demás nodos e inicie sesión como administrador.
g En la ventana Format partition (Formatear la partición), seleccione Do not format this partition (No formatear esta partición) y haga clic en Next (Siguiente). h Haga clic en Finish (Finalizar). 2 Cree una unidad lógica para el área de recuperación flash. a Localice el disco asignado para el área de recuperación flash. b Realice del paso b al paso h indicados en el paso 1. 3 Reinicie los demás nodos e inicie sesión como administrador.
Índice A ASM, 318 ayuda asistencia de Dell, 275 asistencia de Oracle, 275 C cable cable SAS, 285 CAT 5e, 278 CAT 6, 278 discos (continuación) disco de votación redundante, 316 discos de datos y de copia de seguridad, 313 DNS, 297 E EMC PowerPath, 305 clústeres SAS, 285 F conmutador Ethernet Gigabit, 279 Flow Control, 309 conmutador PowerConnect, 293 H D HBA iSCSI, 289 Dell/EMC Fibre Channel, 279 dirección IP dirección IP pública, 297 dirección IP virtual, 297 discos disco de registro del clúster
M S Modular Disk Storage Manager, 307 SAN, 280 SDL, 307 motor de descarga TCP, 299 T O OCFS, 318 P par de bonding, 298 protocolo virtual de Internet, 304 322 Índice términos de EqualLogic bloque, 274 grupo, 274 miembro, 274 volumen, 274