Oracle 10gR2 RAC: Administração

  • 3,564 views
Uploaded on

Oracle 10gR2 RAC: Administração

Oracle 10gR2 RAC: Administração

More in: Technology , Business
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
3,564
On Slideshare
0
From Embeds
0
Number of Embeds
3

Actions

Shares
Downloads
226
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Oracle 10gR2 RAC: Administração Ricardo Portilho Proni [email_address]
  • 2. <Insert Picture Here> Cursos Hands On
  • 3. Aprendizado
    • Visão: 5%
    • Audição: 8%
    • Visão e Audição: 12%
    • Execução: 22%
    • Execução com erro: 42%
    • E 50% é perdido em 2 anos...
  • 4. <Insert Picture Here> Cursos Nerv
  • 5. Cursos Nerv Oracle 11gR2: Backup & Recovery (3 Sábados ) RMAN 11gR2 - Configuração RMAN 11gR2- Backup RMAN 11gR2 - Recovery RMAN 11gR2 - Avançado Oracle 11gR2: Performance Diagnostics & Tuning (3 Sábados) Oracle Event Interface OLTP Performance Tuning DW Performance Tuning Oracle 11gR2: RAC REAL (3 Sábados) Instalação / Configuração / Administração / Performance Tuning Oracle 11gR2: Data Guard REAL (3 Sábados) Instalação / Configuração / Administração Switch Over / Switch Back / Failover Oracle Data Guard
  • 6. Diferenciais
    • Cursos únicos no mercado.
    • Material impresso e digital.
    • Contrato e Nota fiscal.
    • Facilidade no pagamento.
    • Estacionamento grátis.
    • Análise no ambiente do Cliente (Treinamento In Company).
    • Carta de recomendação do Instrutor.
    Oracle Data Guard
  • 7. <Insert Picture Here> Instrutor
  • 8. Instrutor
    • Com cerca de 20 anos de experiência profissional, já trabalhou em grande parte dos maiores bancos de dados Oracle do Brasil.
    • É atualmente o Coordenador do CES – Centro de Excelência Solvo, unidade dedicada às atividades de consultoria, arquitetura, pré-venda e suporte 3o. Nível da Solvo S/A, empresa especializada na implementação e suporte de ambientes de missão crítica e atuação em toda a América Latina.
    • Foi eleito pela Oracle Corporation um Oracle ACE Member, um dos maiores especalistas do mundo em tecnologia de banco de dados. Também foi palestrante do V ENPO (Encontro Nacional de Profissionais Oracle), sobre Load Balance em RAC, conselheiro do GPO (Grupo de Profissionais Oracle), e escritor regular de artigos para a revista SQL Magazine.
  • 9. Instrutor
    • Certificações
    • Oracle ACE
    • Oracle Database 10g Administrator Certified Associate
    • Oracle Database 10g Administrator Certified Professional
    • Oracle Database 10g: RAC Administrator Certified Expert
    • Oracle Database 10g: Managing Oracle on Linux Certified Expert
    • Microsoft Certified Professional
    • Microsoft Certified Database Administrator
    • Microsoft Certified Technology Specialist: SQL Server 2005
    • Microsoft Certified IT Professional: Database Administrator
    • Certified MySQL Database Administrator
    • IBM Certified Database Associate
    • IBM Certified Database Administrator
    • Sybase Adaptive Server Administrator Associate
  • 10. Alunos
  • 11. Alunos
    • Se apresente.
    • Trabalha, estuda?
    • Comente sua experiência com Oracle.
    • Diga algo interessante sobre você.
  • 12. <Insert Picture Here> I – Daemons
  • 13. <Insert Picture Here> Daemons - CRS – Cluster Ready Services (crsd) - CSS – Cluster Syncronization Services (cssd) - EVM – Event Manager (evmd)
  • 14. <Insert Picture Here> Daemons - Logs - Alert Log $CRS_HOME/log/<node>/alert_<node>.log - CRS – Cluster Ready Services (crsd) $CRS_HOME/log/<node>/crsd - CSS – Cluster Syncronization Services (cssd) $CRS_HOME/log/<node>/cssd - EVM – Event Manager (evmd) $CRS_HOME/log/<node>/evmd Outros Logs - VIP e ONS $CRS_HOME/log/<node>/racg - OCR Applications $CRS_HOME/log/<node>/client
  • 15. <Insert Picture Here> LAB I – Daemons Hands On !
  • 16. <Insert Picture Here> LAB - Daemons - Ligue o RAC1. - Acompanhe a execução dos daemons via top. - Após o Banco ORCL subir no RAC1, ligue o RAC2. - Veja o que acontece no alert_rac1.log enquanto o RAC2 inicia. $ tail -f $CRS_HOME/log/rac1/alert_rac1.log - Acompanhe a execução dos daemons via top no RAC2. - Familiarize-se com os diretórios de logs. - Veja o que foi atualizado nos Logs. (Para ver o que está funcionando, use “crs_stat -t”)
  • 17. <Insert Picture Here> LAB I – Daemons Hands Off !
  • 18. <Insert Picture Here> II – srvctl
  • 19. <Insert Picture Here> srvctl - A partir de qualquer Node, controla todos. - Pode ser utilizado com o usuário oracle. - Comando preferencial para iniciar e parar recursos do RAC. - Administra Database, Instances, ASM, Listeners e Services. - Um recurso pode ser iniciado, parado, habilitado, ou desabilitado.
  • 20. <Insert Picture Here> LAB II – srvctl Hands On !
  • 21. <Insert Picture Here> LAB - srvctl - Execute srvctl -h e entenda as opções. - Pare o Listener de apenas um Node. - Pare a Instance de apenas um Node. - Inicie novamente o Listener que está parado. - inicie novamente a Instance que está parada. - Pare o Database. - Pare o ASM das 2 Instances. - Inicie o Database, sem iniciar o ASM de nenhuma Instance. - Mate a Instance de um dos nós, e veja o que acontece. (Para ver o que está funcionando, use “crs_stat -t”)
  • 22. <Insert Picture Here> LAB II – srvctl Hands Off !
  • 23. <Insert Picture Here> III – crs_stat
  • 24. <Insert Picture Here> crs_stat - A partir de qualquer Node, controla todos. - Visualização do Status dos componentes do CRS. - Pode ser utilizado com o usuário oracle .
  • 25. <Insert Picture Here> crs_stat [root@rac1 ~]# crs_stat -f NAME=ora.ORCL.ORCL1.inst TYPE=application ACTION_SCRIPT=/u01/app/oracle/product/10.2.0/db_1/bin/racgwrap ACTIVE_PLACEMENT=0 AUTO_START=2 CHECK_INTERVAL=600 RESTART_ATTEMPTS=1 RESTART_COUNT=0 DESCRIPTION=CRS application for Instance FAILOVER_DELAY=0 FAILURE_INTERVAL=0 HOSTING_MEMBERS=rac1 OPTIONAL_RESOURCES= PLACEMENT=restricted REQUIRED_RESOURCES= ora.rac1.ASM1.asm SCRIPT_TIMEOUT=600 START_TIMEOUT=0 STOP_TIMEOUT=0 UPTIME_THRESHOLD=7d ...
  • 26. <Insert Picture Here> crs_stat … USR_ORA_ALERT_NAME= USR_ORA_CHECK_TIMEOUT=0 USR_ORA_CONNECT_STR=/ as sysdba USR_ORA_DEBUG=0 USR_ORA_DISCONNECT=false USR_ORA_FLAGS= USR_ORA_IF= USR_ORA_INST_NOT_SHUTDOWN= USR_ORA_LANG= USR_ORA_NETMASK= USR_ORA_OPEN_MODE= USR_ORA_OPI=false USR_ORA_PFILE= USR_ORA_PRECONNECT=none USR_ORA_SRV= USR_ORA_START_TIMEOUT=0 USR_ORA_STOP_MODE=immediate USR_ORA_STOP_TIMEOUT=0 USR_ORA_VIP= FAILURE_THRESHOLD=0 FAILURE_COUNT=0 TARGET=OFFLINE STATE=OFFLINE
  • 27. <Insert Picture Here> LAB III – crs_stat Hands On !
  • 28. <Insert Picture Here> LAB - crs_stat Familiarize-se com as formas de uso do crs_stat: - crs_stat -h - crs_stat -t - crs_stat -ls - crs_stat - crs_stat ora.ORCL.ORCL2.inst - crs_stat -v - crs_stat -p - crs_stat -f
  • 29. <Insert Picture Here> LAB III – crs_stat Hands Off !
  • 30. <Insert Picture Here> IV – crs_start e crs_stop
  • 31. <Insert Picture Here> crs_start e crs_stop - A partir de qualquer Node, controla todos. - Deve ser utilizado com o usuário root. - Comando para iniciar e parar recursos controlados pelo Clusterware
  • 32. <Insert Picture Here> LAB IV – crs_start e crs_top Hands On !
  • 33. <Insert Picture Here> LAB – crs_start e crs_stop Verifique as opções do crs_start e crs_stop. crs_start -h crs_stop -h Pare e Inicie alguns recursos, mostrados pela saída do crs_stat.
  • 34. <Insert Picture Here> LAB IV – crs_start e crs_stop Hands Off !
  • 35. <Insert Picture Here> V – crsctl
  • 36. <Insert Picture Here> crsctl - A partir de qualquer Node, controla todos. - Deve ser utilizado com o usuário root. - Principal comando de administração do Clusterware. - Um recurso pode ser iniciado, parado, habilitado, ou desabilitado. - Necessário para verificação e alteração de parâmetros. - Necessário para Troubleshooting e Debug.
  • 37. <Insert Picture Here> LAB V – crsctl Hands On !
  • 38. <Insert Picture Here> LAB - crsctl Verifique as opções do crsctl, digitando “crsctl”, sem opções. Verifique o status dos Daemons: crsctl check crs crsctl check cssd crsctl check crsd crsctl check evmd Verifique informações: crsctl query crs activeversion crsctl query crs softwareversion Verifique e altere parâmetros: crsctl get css misscount crsctl get css disktimeout crsctl set css misscount 3600 crsctl set css disktimeout 3600
  • 39. LAB - crsctl Listagem de módulos do Cluster: crsctl lsmodules crs crsctl lsmodules css crsctl lsmodules evm Coloque um dos módulos informados pelo comando anterior (lsmodules), e coloque ele em modo Debug: crsctl debug log crs “CRSCOMM:2” Para parar todo o Node: crsctl stop crs Para iniciar todo o Node: crsctl start crs
  • 40. <Insert Picture Here> LAB V – crsctl Hands Off !
  • 41. <Insert Picture Here> VI – OCR
  • 42. <Insert Picture Here> OCR – Oracle Cluster Registry - É o centro das informações do RAC. - Deve estar em Storage compartilhado por todos Nodes. - Pode ter 1 mirror. - Ferramentas do OCR: ocrconfig, ocrcheck, ocrdump. - Ferramentas do OCR devem ser utilizadas como root. - Pode ser alterado de qualquer Node. - Backups do OCR são executados automaticamente. - Backups armazenados: 1 semanal, 1 diário, e 1 a cada 4 horas. - Podem ser executados backups físicos e lógicos.
  • 43. <Insert Picture Here> LAB VI – OCR Hands On !
  • 44. <Insert Picture Here> LAB - OCR Execute o ocrcheck, e verifique o resultado. Ao executar o ocrcheck, um log é gerado em: $CRS_HOME/log/<hostname>/client/ocrcheck_<pid>.log Execute o ocrdump, e analise o conteúdo do dump (OCRDUMPFILE). Verifique os backups físicos existentes do OCR: ocrconfig -showbackup Faça um backup lógico: crsctl stop crs (Em todos os Nodes...) ocrconfig -export /home/oracle/OCR.bkp Restaure este backup lógico: ocrconfig -import /home/oracle/OCR.bkp Verifique se o OCR está válido: cluvfy comp ocr -n rac1,rac2 Inicie novamente o crs, em todos Nodes: crsctl start crs
  • 45. <Insert Picture Here> LAB VI – OCR Hands Off !
  • 46. <Insert Picture Here> VII – Voting Disks
  • 47. <Insert Picture Here> Voting Disk - É o centro do “ping” dos Nodes. - Pode ter 2 mirrors. - Pode ser alterado de qualquer Node. - Backups do Voting Disk são manuais. - Todas operações do Voting Disk devem ser executadas como root. - Deve ser feito backup após Adição ou Remoção de Nodes. - Com base nas informações nele, o Clusterware decide que Node faz parte do Cluster (Election / Eviction / Split Brain).
  • 48. <Insert Picture Here> LAB VII – Voting Disk Hands On !
  • 49. <Insert Picture Here> LAB - Voting Disk Verifique o status do Voting Disk: crsctl query css votedisk Execute backup do Voting Disk: dd if=/u01/oradata/votingdisk of=/home/oracle/votingdisk.bkp Adicione um Voting Disk: crsctl stop crs crsctl add css votedisk /u01/oradata/votingdisk-mirror -force Verifique o status dos Voting Disk s: crsctl start crs crsctl query css votedisk Remova o novo Voting Disk: crsctl stop crs crsctl delete css votedisk /u01/oradata/votingdisk-mirror -force
  • 50. <Insert Picture Here> LAB VII – Voting Disk Hands Off !
  • 51. <Insert Picture Here> VIII – oifcfg
  • 52. oifcfg - A partir de qualquer Node, controla todos. - Deve ser utilizado com o usuário root. - Ferramenta para administração dos IPs Público, Interconnect, e VIPs. - Necessário para alteração de rede dos Nodes.
  • 53. <Insert Picture Here> LAB VIII – oifcfg Hands On !
  • 54. <Insert Picture Here> LAB - oifcfg srvctl stop database -d ORCL srvctl stop asm -n rac1 srvctl stop asm -n rac2 srvctl stop nodeapps -n rac1 srvctl stop nodeapps -n rac2 Verique no Vmware qual a Rede Host-Only. Logar no ambiente gráfico do RAC1, como root, e alterar o IP. Logar no ambiente gráfico do RAC2, como root, e alterar o IP. No RAC1, alterar /etc/hosts para os novos IPs. No RAC2, alterar /etc/hosts para os novos IPs. No RAC1, verifique se esta linha está coreta no /etc/hosts 127.0.0.1 localhost localhost.localdomain rac1 rac1.localdomain No RAC2, verifique se esta linha está coreta no /etc/hosts 127.0.0.1 localhost localhost.localdomain rac2 rac2.localdomain
  • 55. <Insert Picture Here> Altere os VIPs: srvctl config nodeapps -n rac1 -a srvctl config nodeapps -n rac2 -a srvctl modify nodeapps -n rac1 -A 172.16.131.111/255.255.255.0/eth0 srvctl modify nodeapps -n rac2 -A 172.16.131.112/255.255.255.0/eth0 srvctl config nodeapps -n rac1 -a srvctl config nodeapps -n rac2 -a Inicie os serviços do Clusterware: srvctl start nodeapps -n rac1 srvctl start nodeapps -n rac2 Altere os IPs Público e do Interconnect: oifcfg getif oifcfg delif -global eth0 oifcfg delif -global eth1 oifcfg setif -global eth0/172.16.131.0:public oifcfg setif -global eth1/172.16.132.0:cluster_interconnect oifcfg getif Inicie o Banco com srvctl.
  • 56. <Insert Picture Here> LAB VIII – oifcfg Hands Off !
  • 57. <Insert Picture Here> IX – Rolling Upgrades
  • 58. <Insert Picture Here> Rolling Upgrades - Permite aplicação de Patches sem indisponibilidade. - Para-se uma Instance, aplica-se o Patch, inicia a Instance, e parte para a Instance seguinte. - O Patch precisa suportar o Rolling Upgrade. - Só é possível utilizando-se um ORACLE_HOME para cada Node. - Necessário para alteração de rede dos Nodes.
  • 59. <Insert Picture Here> LAB IX – Rolling Upgrades Hands On !
  • 60. <Insert Picture Here> LAB – Rolling Upgrades Pare o ORCL1 e ASM1 e Listener do RAC1, usando srvctl. Aplique o CPU Patch April 2009 no RAC1: cd $ORACLE_HOME/8290506 $ORACLE_HOME/OPatch/opatch appl y Inicie o ORCL1 e ASM1 e Listener do RAC1, usando srvctl. Pare o ORCL2 e ASM2 e Listener do RAC2, usando srvctl. Aplique o CPU Patch April 2009 no RAC1: cd /home/oracle/8290506 $ORACLE_HOME/OPatch/opatch apply Inicie o ORCL2 e ASM2 e Listener do RAC2, usando srvctl. Aplique o SQL do Patch, em apenas um Node: cd $ORACLE_HOME/rdbms/admin sqlplus / AS SYSDBA SQL> @catbundle.sql cpu apply SQL> QUIT
  • 61. <Insert Picture Here> LAB IX – Rolling Upgrades Hands Off !
  • 62. <Insert Picture Here> X – Adicionar e Remover Nodes
  • 63. <Insert Picture Here> Adicionar e Remover Nodes - Sequência para adicionar Node: - Instalar Hardware; - Instalar Sistema Operacional; - Configurar Storage; - Instalar Clusterware; - Instalar Oracle; - Configurar o Listener; - Adicionar Instances (ASM e Database). - Sequência para remover Node: . - Remover Instance (Database e ASM); - Remover Listener; - Remover Oracle; - Alterar Inventories dos outros Nodes; - Remover configurações de rede do OCR (oifconfig); - Remover o Node do OCR; - Remover Clusterware; - Alterar Inventories dos outros Nodes;
  • 64. <Insert Picture Here> LAB X – Adicionar 1 Node Hands On !
  • 65. <Insert Picture Here> LAB – Adicionar 1 Node Ligue o RAC3. Para instalar o Clusterware, execute em qualquer Node já existente: $CRS_HOME/oui/bin/addNode.sh Para instalar o Oracle, execute em qualquer Node já existente: $ORACLE_HOME/oui/bin/addNode.sh No novo Node, configure o Listener com o NETCA. No novo Node, adicione a Instance do ASM com o DBCA. No novo Node, adicione a Instance do Database com o DBCA.
  • 66. <Insert Picture Here> LAB X – Adicionar 1 Node Hands Off !