http://chinaunix.net/jh/19/119236.html

解决方案 »

  1.   

    顶!!!!!!!!!!
    偶也急需在windows server 2003下安装Oracle9i集群的相关文章
      

  2.   


    Step-By-Step Installation of RAC with RAW Datafiles on Windows 2000--------------------------------------------------------------------------------Purpose
    This document will provide the reader with step-by-step instructions on how to install and configure an Oracle9i Real Application Clusters (RAC) database using RAW Datafiles on a Windows 2000 cluster.  Based on Service Request volume, this note will outline the installation of 9i Release 2 for a Windows 2000 cluster.  For additional information on any of these steps for Windows NT specific information, please see the references listed at the end of this document.Note:  If you wish to use Oracle Cluster File System (OCFS) for the datafiles instead of RAW Datafiles, please see Note 178882.1.  Disclaimer:  If there are any errors or issues prior to section 2, please contact your cluster hardware vendor?s support.  
    1. Configuring the Cluster Hardware 1.1 Minimal Hardware List / System Requirements 1.2 Installing the Shared Disk Array1.3 Installing Cluster Interconnect and Public Network Hardware 1.4 Checking the Temp and Tmp Directories Defined Within Windows 1.5 Checking Access to Other Nodes Within Windows1.6  Performing a Final Clustercheck2.  Installing and Configuring the Cluster Software with RAW Datafiles2.1 Preparing the Logical Drives in Windows 2.2 Running Oracle Cluster Setup Wizard 2.3 Installing the RDBMS Software into the Oracle Home2.4 Applying Patches to the Oracle Home3.  Creating a RAC Database Using Oracle Database Configuration Assistant 4.  Using SRVCTL for the Administration and Maintenance of a RAC Database5.  References
      

  3.   

    --------------------------------------------------------------------------------1. Configuring the Cluster Hardware 1.1  Minimal Hardware List / System Requirements
    Certified cluster configurations are listed in Note 184875.1  How To Check The Certification Matrix for Real Application Clusters.  Note that there are different configurations for Windows NT and 2000.  Please consult this listing for specific Hardware/Software/Variance information provided by your Cluster vendor.  In general, each node will require the following:1.1.1.     Hardware:External shared hard disks Certified hardware configurations 1.1.2.      Software: Oracle Operating System Dependent (OSD) clusterware layer  1.1.3.      RAM: 256 MB minimum for each instance running on that node The above information is contained within the Oracle9i Database Installation Guide for Windows.  See the section ?Oracle9i Database System Requirements? for additional information on hardware/system sizing for other options of the RDBMS.  1.2  Installing Shared Disk Array
    Follow the procedures provided by your Cluster vendor.  Verify that all nodes can view the shared partitions within the Disk Manager in Windows 2000. 1.3  Installing Cluster Interconnect and Public Network Hardware
    Follow the procedures provided by your Cluster vendor.  In general, you will setup the following Hostname and IP information before running the Cluster setup:1.3.1.      Setup the External and Internal Network Interface Cards (NIC): Within the Network settings of Windows, create at least two entries for the NICs you have installed.  When assigning the Bindings of the NICs within the Windows Networking Properties, ensure that the Public IP is listed at the top for all settings.  The Private NIC(s) should be listed below the public NIC settings.  You can verify this at the command prompt by running the command ipconfig /all to verify that the public IP address is listed first.  It is strongly recommended that a network switch is used for the interconnect between nodes rather than a crossover cable.  Most cluster hardware vendors will have this as a requirement due to known NIC problems when there is loss of electrical connectivity.  This can cause hanging issues with various services on node reboot.  Please see Note 213416.1  RAC: Troubleshooting Windows NT/2000 Service Hangs for more information.  1.3.2.      Resolution of External and Internal Hostnames: Ensure that the External/Public Hostnames are defined in your Directory Network Services (DNS) and that the correct IP addresses resolve for all nodes in the cluster. Ensure that all External/Public and Internal/Private Hostnames are defined in the HOSTS file on all nodes of the cluster.  This file is located in the WINDOWS_HOME\System32\drivers\etc directory. NOTE:  Some vendors also require the setup of the LMHOSTS file.  Please check your Vendor specific documentation. Test your cluster configuration by pinging all hostnames from each node and check for proper names resolution.  
      

  4.   

    .4  Checking the Temp and Tmp Directories Defined within Windows
    To install properly across all nodes, the Oracle Universal Installer will need to use the temporary folders defined within Windows.  The TEMP and TMP folders should be the same across all nodes in the cluster.  By default these settings are defined as %USERPROFILE%\Local Settings\Temp and %USERPROFILE%\Local Settings\Tmp in the Environment Settings of My Computer.  It is recommended to explicitly redefine these as WIN_DRIVE:\temp and WIN_DRIVE:\tmp ; for example:   C:\temp and C:\tmp for all nodes.1.5  Checking Access to Other Nodes Within Windows
    To install and perform administrative tasks, Oracle Corporation recommends using the same local administrative username and password on every node in a cluster, or a domain username with local administrative privileges on all nodes.  All nodes must be in the same domain. Ensure that each node has administrative access to all these directories within the Windows environment by running the following at the command prompt: NET USE \\host_name\C$ where host_name is the public network name for the other nodes.  If you plan to install the ORACLE_HOME onto another drive location than C, check that administrative share as well. For example, if your WIN_HOME is on the C drive and you were installing the ORACLE_HOME onto the E drive of all nodes, you would run the following from a command prompt on node 1 of a four-node cluster:NET USE \\node2\C$NET USE \\node3\C$ NET USE \\node4\C$ NET USE \\node2\E$ NET USE \\node3\E$ NET USE \\node4\E$ You would then repeat these commands on all nodes within the cluster.  If the following appears for each command, the privileges are correct: The command completed successfully.  If you receive errors, resolve these within the Windows environment before proceeding. 1.6  Performing a Final Clustercheck
    Note:  If you have any issues with Clustercheck, please see Note 186130.1  Clustercheck.exe Fails with Windows Error 183 . Within a command prompt window, run the clustercheck.exe program located in the Disk1\preinstall_rac\clustercheck directory.  This tool will prompt for the public and private hostnames and have you verify the IP address resolution.  If that passes, then it will perform a check the health of the shared disk array and other environment variables and permissions necessary for proper cluster installation and operation.  It will create a subdirectory called opsm in the temporary directory specified by your environment settings (WIN_DRIVE:\Documents and Settings\Administrator\Local Settings\Temp by default) and log file called OraInfoCoord.log.  This log will contain any errors encountered in the check.  You should see the following at the bottom of the log file and within the command prompt window when you run the clustercheck.exe program:      ORACLE CLUSTER CHECK WAS SUCCESSFULYou must correct any errors that occur before proceeding.  Please contact your Cluster Hardware Vendor if you need assistance.  NOTE:  If at any time in the installation of the software you do not see all nodes in the cluster within the Cluster Node Selection screen, there is something wrong with your cluster configuration ? you will have to go back and troubleshoot your cluster install.  You can perform clusterware diagnostics by executing the ORACLE_HOME\bin\lsnodes -v command and analyzing its output.  Use Metalink to search for any errors.  Refer to your vendor's clusterware documentation if the output indicates that your clusterware is not properly installed.  Resolve the problem, then rerun the checks. Back to top
    --------------------------------------------------------------------------------2.  Installing and Configuring Cluster Software with RAW Datafiles
    This configuration will install the Oracle Home on a local NTFS drive of each node and the Oracle RAW Datafiles on shared Logical Partitions.  NOTE -- For installations with more than 2 nodes:  Due to known OUI issues (bug 2973000), it is recommended to perform individual installations on each node of a 3-or-more node cluster rather than performing a cluster install.  The consequence of this method is that all future patch applications using OUI will also have to be done individually from each node.  The install procedure is the same except as noted in Sections 2.4 and 2.5.2.1.  Preparing the Logical Drives in Windows
    Real Application Clusters requires that all each instance be able to access a set of unformatted devices on a shared disk subsystem.  These shared disks are also referred to as raw devices.  The Oracle instances in Real Application Clusters write data onto the raw devices to update the control file, server parameter file, each datafile, and each redo log file.  All instances in the cluster share these files. The Oracle Database Configuration Assistant (DBCA) will create a seed database expecting a particular configuration for a two-node cluster.  For the seed database that will be created by the DBCA, it is recommended you create the Logical Partition at least 1M larger than the desired datafile size.    The following table contains a listing of the tablespaces, minimum datafile size, and expected symbolic link names for Oracle9i Release 2 (9.2.0.1.0):