Oracle 10gR2 RAC: Administração
Upcoming SlideShare
Loading in...5
×
 

Oracle 10gR2 RAC: Administração

on

  • 4,383 views

Oracle 10gR2 RAC: Administração

Oracle 10gR2 RAC: Administração

Statistics

Views

Total Views
4,383
Views on SlideShare
4,346
Embed Views
37

Actions

Likes
0
Downloads
215
Comments
0

4 Embeds 37

http://www.ryanpadilha.com.br 32
http://www.slideshare.net 2
https://www.linkedin.com 2
http://blog.ryanpadilha.com.br 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Oracle 10gR2 RAC: Administração Oracle 10gR2 RAC: Administração Presentation Transcript

  • Oracle 10gR2 RAC: Administração Ricardo Portilho Proni [email_address]
  • <Insert Picture Here> Cursos Hands On
  • Aprendizado
    • Visão: 5%
    • Audição: 8%
    • Visão e Audição: 12%
    • Execução: 22%
    • Execução com erro: 42%
    • E 50% é perdido em 2 anos...
  • <Insert Picture Here> Cursos Nerv
  • Cursos Nerv Oracle 11gR2: Backup & Recovery (3 Sábados ) RMAN 11gR2 - Configuração RMAN 11gR2- Backup RMAN 11gR2 - Recovery RMAN 11gR2 - Avançado Oracle 11gR2: Performance Diagnostics & Tuning (3 Sábados) Oracle Event Interface OLTP Performance Tuning DW Performance Tuning Oracle 11gR2: RAC REAL (3 Sábados) Instalação / Configuração / Administração / Performance Tuning Oracle 11gR2: Data Guard REAL (3 Sábados) Instalação / Configuração / Administração Switch Over / Switch Back / Failover Oracle Data Guard
  • Diferenciais
    • Cursos únicos no mercado.
    • Material impresso e digital.
    • Contrato e Nota fiscal.
    • Facilidade no pagamento.
    • Estacionamento grátis.
    • Análise no ambiente do Cliente (Treinamento In Company).
    • Carta de recomendação do Instrutor.
    Oracle Data Guard
  • <Insert Picture Here> Instrutor
  • Instrutor
    • Com cerca de 20 anos de experiência profissional, já trabalhou em grande parte dos maiores bancos de dados Oracle do Brasil.
    • É atualmente o Coordenador do CES – Centro de Excelência Solvo, unidade dedicada às atividades de consultoria, arquitetura, pré-venda e suporte 3o. Nível da Solvo S/A, empresa especializada na implementação e suporte de ambientes de missão crítica e atuação em toda a América Latina.
    • Foi eleito pela Oracle Corporation um Oracle ACE Member, um dos maiores especalistas do mundo em tecnologia de banco de dados. Também foi palestrante do V ENPO (Encontro Nacional de Profissionais Oracle), sobre Load Balance em RAC, conselheiro do GPO (Grupo de Profissionais Oracle), e escritor regular de artigos para a revista SQL Magazine.
  • Instrutor
    • Certificações
    • Oracle ACE
    • Oracle Database 10g Administrator Certified Associate
    • Oracle Database 10g Administrator Certified Professional
    • Oracle Database 10g: RAC Administrator Certified Expert
    • Oracle Database 10g: Managing Oracle on Linux Certified Expert
    • Microsoft Certified Professional
    • Microsoft Certified Database Administrator
    • Microsoft Certified Technology Specialist: SQL Server 2005
    • Microsoft Certified IT Professional: Database Administrator
    • Certified MySQL Database Administrator
    • IBM Certified Database Associate
    • IBM Certified Database Administrator
    • Sybase Adaptive Server Administrator Associate
  • Alunos
  • Alunos
    • Se apresente.
    • Trabalha, estuda?
    • Comente sua experiência com Oracle.
    • Diga algo interessante sobre você.
  • <Insert Picture Here> I – Daemons
  • <Insert Picture Here> Daemons - CRS – Cluster Ready Services (crsd) - CSS – Cluster Syncronization Services (cssd) - EVM – Event Manager (evmd)
  • <Insert Picture Here> Daemons - Logs - Alert Log $CRS_HOME/log/<node>/alert_<node>.log - CRS – Cluster Ready Services (crsd) $CRS_HOME/log/<node>/crsd - CSS – Cluster Syncronization Services (cssd) $CRS_HOME/log/<node>/cssd - EVM – Event Manager (evmd) $CRS_HOME/log/<node>/evmd Outros Logs - VIP e ONS $CRS_HOME/log/<node>/racg - OCR Applications $CRS_HOME/log/<node>/client
  • <Insert Picture Here> LAB I – Daemons Hands On !
  • <Insert Picture Here> LAB - Daemons - Ligue o RAC1. - Acompanhe a execução dos daemons via top. - Após o Banco ORCL subir no RAC1, ligue o RAC2. - Veja o que acontece no alert_rac1.log enquanto o RAC2 inicia. $ tail -f $CRS_HOME/log/rac1/alert_rac1.log - Acompanhe a execução dos daemons via top no RAC2. - Familiarize-se com os diretórios de logs. - Veja o que foi atualizado nos Logs. (Para ver o que está funcionando, use “crs_stat -t”)
  • <Insert Picture Here> LAB I – Daemons Hands Off !
  • <Insert Picture Here> II – srvctl
  • <Insert Picture Here> srvctl - A partir de qualquer Node, controla todos. - Pode ser utilizado com o usuário oracle. - Comando preferencial para iniciar e parar recursos do RAC. - Administra Database, Instances, ASM, Listeners e Services. - Um recurso pode ser iniciado, parado, habilitado, ou desabilitado.
  • <Insert Picture Here> LAB II – srvctl Hands On !
  • <Insert Picture Here> LAB - srvctl - Execute srvctl -h e entenda as opções. - Pare o Listener de apenas um Node. - Pare a Instance de apenas um Node. - Inicie novamente o Listener que está parado. - inicie novamente a Instance que está parada. - Pare o Database. - Pare o ASM das 2 Instances. - Inicie o Database, sem iniciar o ASM de nenhuma Instance. - Mate a Instance de um dos nós, e veja o que acontece. (Para ver o que está funcionando, use “crs_stat -t”)
  • <Insert Picture Here> LAB II – srvctl Hands Off !
  • <Insert Picture Here> III – crs_stat
  • <Insert Picture Here> crs_stat - A partir de qualquer Node, controla todos. - Visualização do Status dos componentes do CRS. - Pode ser utilizado com o usuário oracle .
  • <Insert Picture Here> crs_stat [root@rac1 ~]# crs_stat -f NAME=ora.ORCL.ORCL1.inst TYPE=application ACTION_SCRIPT=/u01/app/oracle/product/10.2.0/db_1/bin/racgwrap ACTIVE_PLACEMENT=0 AUTO_START=2 CHECK_INTERVAL=600 RESTART_ATTEMPTS=1 RESTART_COUNT=0 DESCRIPTION=CRS application for Instance FAILOVER_DELAY=0 FAILURE_INTERVAL=0 HOSTING_MEMBERS=rac1 OPTIONAL_RESOURCES= PLACEMENT=restricted REQUIRED_RESOURCES= ora.rac1.ASM1.asm SCRIPT_TIMEOUT=600 START_TIMEOUT=0 STOP_TIMEOUT=0 UPTIME_THRESHOLD=7d ...
  • <Insert Picture Here> crs_stat … USR_ORA_ALERT_NAME= USR_ORA_CHECK_TIMEOUT=0 USR_ORA_CONNECT_STR=/ as sysdba USR_ORA_DEBUG=0 USR_ORA_DISCONNECT=false USR_ORA_FLAGS= USR_ORA_IF= USR_ORA_INST_NOT_SHUTDOWN= USR_ORA_LANG= USR_ORA_NETMASK= USR_ORA_OPEN_MODE= USR_ORA_OPI=false USR_ORA_PFILE= USR_ORA_PRECONNECT=none USR_ORA_SRV= USR_ORA_START_TIMEOUT=0 USR_ORA_STOP_MODE=immediate USR_ORA_STOP_TIMEOUT=0 USR_ORA_VIP= FAILURE_THRESHOLD=0 FAILURE_COUNT=0 TARGET=OFFLINE STATE=OFFLINE
  • <Insert Picture Here> LAB III – crs_stat Hands On !
  • <Insert Picture Here> LAB - crs_stat Familiarize-se com as formas de uso do crs_stat: - crs_stat -h - crs_stat -t - crs_stat -ls - crs_stat - crs_stat ora.ORCL.ORCL2.inst - crs_stat -v - crs_stat -p - crs_stat -f
  • <Insert Picture Here> LAB III – crs_stat Hands Off !
  • <Insert Picture Here> IV – crs_start e crs_stop
  • <Insert Picture Here> crs_start e crs_stop - A partir de qualquer Node, controla todos. - Deve ser utilizado com o usuário root. - Comando para iniciar e parar recursos controlados pelo Clusterware
  • <Insert Picture Here> LAB IV – crs_start e crs_top Hands On !
  • <Insert Picture Here> LAB – crs_start e crs_stop Verifique as opções do crs_start e crs_stop. crs_start -h crs_stop -h Pare e Inicie alguns recursos, mostrados pela saída do crs_stat.
  • <Insert Picture Here> LAB IV – crs_start e crs_stop Hands Off !
  • <Insert Picture Here> V – crsctl
  • <Insert Picture Here> crsctl - A partir de qualquer Node, controla todos. - Deve ser utilizado com o usuário root. - Principal comando de administração do Clusterware. - Um recurso pode ser iniciado, parado, habilitado, ou desabilitado. - Necessário para verificação e alteração de parâmetros. - Necessário para Troubleshooting e Debug.
  • <Insert Picture Here> LAB V – crsctl Hands On !
  • <Insert Picture Here> LAB - crsctl Verifique as opções do crsctl, digitando “crsctl”, sem opções. Verifique o status dos Daemons: crsctl check crs crsctl check cssd crsctl check crsd crsctl check evmd Verifique informações: crsctl query crs activeversion crsctl query crs softwareversion Verifique e altere parâmetros: crsctl get css misscount crsctl get css disktimeout crsctl set css misscount 3600 crsctl set css disktimeout 3600
  • LAB - crsctl Listagem de módulos do Cluster: crsctl lsmodules crs crsctl lsmodules css crsctl lsmodules evm Coloque um dos módulos informados pelo comando anterior (lsmodules), e coloque ele em modo Debug: crsctl debug log crs “CRSCOMM:2” Para parar todo o Node: crsctl stop crs Para iniciar todo o Node: crsctl start crs
  • <Insert Picture Here> LAB V – crsctl Hands Off !
  • <Insert Picture Here> VI – OCR
  • <Insert Picture Here> OCR – Oracle Cluster Registry - É o centro das informações do RAC. - Deve estar em Storage compartilhado por todos Nodes. - Pode ter 1 mirror. - Ferramentas do OCR: ocrconfig, ocrcheck, ocrdump. - Ferramentas do OCR devem ser utilizadas como root. - Pode ser alterado de qualquer Node. - Backups do OCR são executados automaticamente. - Backups armazenados: 1 semanal, 1 diário, e 1 a cada 4 horas. - Podem ser executados backups físicos e lógicos.
  • <Insert Picture Here> LAB VI – OCR Hands On !
  • <Insert Picture Here> LAB - OCR Execute o ocrcheck, e verifique o resultado. Ao executar o ocrcheck, um log é gerado em: $CRS_HOME/log/<hostname>/client/ocrcheck_<pid>.log Execute o ocrdump, e analise o conteúdo do dump (OCRDUMPFILE). Verifique os backups físicos existentes do OCR: ocrconfig -showbackup Faça um backup lógico: crsctl stop crs (Em todos os Nodes...) ocrconfig -export /home/oracle/OCR.bkp Restaure este backup lógico: ocrconfig -import /home/oracle/OCR.bkp Verifique se o OCR está válido: cluvfy comp ocr -n rac1,rac2 Inicie novamente o crs, em todos Nodes: crsctl start crs
  • <Insert Picture Here> LAB VI – OCR Hands Off !
  • <Insert Picture Here> VII – Voting Disks
  • <Insert Picture Here> Voting Disk - É o centro do “ping” dos Nodes. - Pode ter 2 mirrors. - Pode ser alterado de qualquer Node. - Backups do Voting Disk são manuais. - Todas operações do Voting Disk devem ser executadas como root. - Deve ser feito backup após Adição ou Remoção de Nodes. - Com base nas informações nele, o Clusterware decide que Node faz parte do Cluster (Election / Eviction / Split Brain).
  • <Insert Picture Here> LAB VII – Voting Disk Hands On !
  • <Insert Picture Here> LAB - Voting Disk Verifique o status do Voting Disk: crsctl query css votedisk Execute backup do Voting Disk: dd if=/u01/oradata/votingdisk of=/home/oracle/votingdisk.bkp Adicione um Voting Disk: crsctl stop crs crsctl add css votedisk /u01/oradata/votingdisk-mirror -force Verifique o status dos Voting Disk s: crsctl start crs crsctl query css votedisk Remova o novo Voting Disk: crsctl stop crs crsctl delete css votedisk /u01/oradata/votingdisk-mirror -force
  • <Insert Picture Here> LAB VII – Voting Disk Hands Off !
  • <Insert Picture Here> VIII – oifcfg
  • oifcfg - A partir de qualquer Node, controla todos. - Deve ser utilizado com o usuário root. - Ferramenta para administração dos IPs Público, Interconnect, e VIPs. - Necessário para alteração de rede dos Nodes.
  • <Insert Picture Here> LAB VIII – oifcfg Hands On !
  • <Insert Picture Here> LAB - oifcfg srvctl stop database -d ORCL srvctl stop asm -n rac1 srvctl stop asm -n rac2 srvctl stop nodeapps -n rac1 srvctl stop nodeapps -n rac2 Verique no Vmware qual a Rede Host-Only. Logar no ambiente gráfico do RAC1, como root, e alterar o IP. Logar no ambiente gráfico do RAC2, como root, e alterar o IP. No RAC1, alterar /etc/hosts para os novos IPs. No RAC2, alterar /etc/hosts para os novos IPs. No RAC1, verifique se esta linha está coreta no /etc/hosts 127.0.0.1 localhost localhost.localdomain rac1 rac1.localdomain No RAC2, verifique se esta linha está coreta no /etc/hosts 127.0.0.1 localhost localhost.localdomain rac2 rac2.localdomain
  • <Insert Picture Here> Altere os VIPs: srvctl config nodeapps -n rac1 -a srvctl config nodeapps -n rac2 -a srvctl modify nodeapps -n rac1 -A 172.16.131.111/255.255.255.0/eth0 srvctl modify nodeapps -n rac2 -A 172.16.131.112/255.255.255.0/eth0 srvctl config nodeapps -n rac1 -a srvctl config nodeapps -n rac2 -a Inicie os serviços do Clusterware: srvctl start nodeapps -n rac1 srvctl start nodeapps -n rac2 Altere os IPs Público e do Interconnect: oifcfg getif oifcfg delif -global eth0 oifcfg delif -global eth1 oifcfg setif -global eth0/172.16.131.0:public oifcfg setif -global eth1/172.16.132.0:cluster_interconnect oifcfg getif Inicie o Banco com srvctl.
  • <Insert Picture Here> LAB VIII – oifcfg Hands Off !
  • <Insert Picture Here> IX – Rolling Upgrades
  • <Insert Picture Here> Rolling Upgrades - Permite aplicação de Patches sem indisponibilidade. - Para-se uma Instance, aplica-se o Patch, inicia a Instance, e parte para a Instance seguinte. - O Patch precisa suportar o Rolling Upgrade. - Só é possível utilizando-se um ORACLE_HOME para cada Node. - Necessário para alteração de rede dos Nodes.
  • <Insert Picture Here> LAB IX – Rolling Upgrades Hands On !
  • <Insert Picture Here> LAB – Rolling Upgrades Pare o ORCL1 e ASM1 e Listener do RAC1, usando srvctl. Aplique o CPU Patch April 2009 no RAC1: cd $ORACLE_HOME/8290506 $ORACLE_HOME/OPatch/opatch appl y Inicie o ORCL1 e ASM1 e Listener do RAC1, usando srvctl. Pare o ORCL2 e ASM2 e Listener do RAC2, usando srvctl. Aplique o CPU Patch April 2009 no RAC1: cd /home/oracle/8290506 $ORACLE_HOME/OPatch/opatch apply Inicie o ORCL2 e ASM2 e Listener do RAC2, usando srvctl. Aplique o SQL do Patch, em apenas um Node: cd $ORACLE_HOME/rdbms/admin sqlplus / AS SYSDBA SQL> @catbundle.sql cpu apply SQL> QUIT
  • <Insert Picture Here> LAB IX – Rolling Upgrades Hands Off !
  • <Insert Picture Here> X – Adicionar e Remover Nodes
  • <Insert Picture Here> Adicionar e Remover Nodes - Sequência para adicionar Node: - Instalar Hardware; - Instalar Sistema Operacional; - Configurar Storage; - Instalar Clusterware; - Instalar Oracle; - Configurar o Listener; - Adicionar Instances (ASM e Database). - Sequência para remover Node: . - Remover Instance (Database e ASM); - Remover Listener; - Remover Oracle; - Alterar Inventories dos outros Nodes; - Remover configurações de rede do OCR (oifconfig); - Remover o Node do OCR; - Remover Clusterware; - Alterar Inventories dos outros Nodes;
  • <Insert Picture Here> LAB X – Adicionar 1 Node Hands On !
  • <Insert Picture Here> LAB – Adicionar 1 Node Ligue o RAC3. Para instalar o Clusterware, execute em qualquer Node já existente: $CRS_HOME/oui/bin/addNode.sh Para instalar o Oracle, execute em qualquer Node já existente: $ORACLE_HOME/oui/bin/addNode.sh No novo Node, configure o Listener com o NETCA. No novo Node, adicione a Instance do ASM com o DBCA. No novo Node, adicione a Instance do Database com o DBCA.
  • <Insert Picture Here> LAB X – Adicionar 1 Node Hands Off !