Tag Archive: Clusterware

Olá pessoal!

Hoje veremos como realizar corretamente a análise para o troubleshooting do ambiente clusterizado.

Na verdade, não passarei aqui como se fazer um troubleshooting, mas, sim, como conhecer a ordem de inicialização do Clusterware, e, com isso, identificar o lugar onde o problema ocorre.

O Clusterware, é iniciado no boot do sistema operacional, pois é chamado através do /etc/inittab;

Entradas no /etc/inittab referentes ao startup do Clusterware:

h1:35:respawn:/etc/init.d/init.evmd run >/dev/null 2>&1 </dev/null
h2:35:respawn:/etc/init.d/init.cssd fatal >/dev/null 2>&1 </dev/null
h3:35:respawn:/etc/init.d/init.crsd run >/dev/null 2>&1 </dev/null

Assim que o servidor é iniciado, o primeiro processo que tentará ficar online é o CSS, para isso, verificará se tem acesso de leitura/gravação nos Voting Disks;

Para acompanhar a subida do CSS, verificar dois logs:

  • Arquivo: /var/log/messages

As mensagens esperadas são:

    • Cluster Ready Services completed waiting on dependencies;
    • Running CRSD with TZ=;
    • Oracle CSS Family monitor starting.
  • Arquivo: $ORA_CRS_HOME/log/<hostname>/alert.log

A mensagem esperada é:

    • CSSD voting file is online: /dev/voting1

O arquivo /etc/oracle/ocr.loc define a localização do OCR. Necessário para que o processo CRSD seja iniciado. O CSS faz a leitura desse arquivo;

O CSS solicita o início do CRSD e EVMD ($ORA_CRS_HOME/log/hostname/alert.log.

As mensagens esperadas para esta ação são:

  • The OCR service started on node mvrac1;
  • EVMD started on node mvrac1;
  • CRSD started on node mvrac1;

O CRSD inicializará os recursos do cluster ($ORA_CRS_HOME/log/<hostname>/crsd/crsd.log).

As mensagens esperadas são:

  • “Attempting to start ‘ora.mvrac1.vip’ on member ‘mvrac1′”;
  • “Start of ‘ora.mvrac1.vip’ on member ‘mvrac1′ succeeded.”

Diretórios onde são gerados os logs do Clusterware:

  • $ORA_CRS_HOME/log/<hostname>

Para o restante dos recursos, o caminho de log permanece o mesmo:

Listener:

  • $ORACLE_HOME/network/log/listener.log

ASM:

  • Definido pelo parâmetro BACKGROUND_DUMP_DEST da instância ASM;

Banco de Dados:

  • Definido pelo parâmetro BACKGROUND_DUMP_DEST da instância de banco de dados.

Conhecendo todo o ciclo de inicialização do Clusterware, e onde procurar erros, fica fácil encontrar o problema, ou, ao menos, direcionar o problema para o Suporte Oracle.

Finalizamos hoje a série de artigos das rotinas administrativas do Clusterware.

O próximo artigo iniciará a série que tratará sobre a conversão de um banco de dados single instance para RAC.

Um abraço!

Vinicius

Share

Olá pessoal!

Hoje veremos mais detalhes sobre a ferramenta oifcfg.

Ela é utilizada para definir quais serão as interfaces de rede pública e privada no Clusterware. Além disso, ela é utilizada quando é necessário alterar a faixa de endereço IP e subnet de uma rede específica (necessário quando há mudança na faixa de IP’s utilizada pela corporação).

Características do oifcfg:

  • Pode ser utilizado com o usuário oracle;
  • A partir de qualquer nó, controla todos;
  • Ferramenta para administração das interfaces de rede utilizadas no Clusterware:
    • Pública (VIP);
    • Privada (InterConnect).
  • Caso uma interface de rede queime, essa ferramenta será utilizada para substituir a interface de rede no OCR;
  • Útil para alterar a Subnet de uma interface de rede.

Como citado, as alterações efetuadas através do oifcfg são armazenadas no OCR.

Para verificar quais são as interfaces de rede e seu devido uso no Clusterware:

[oracle@mvrac1 oracle]$ oifcfg getif
eth0  172.23.10.0  global  public
eth1  10.0.0.0  global  cluster_interconnect

Para reconfigurar uma placa de rede para outra faixa de IP, primeiro, é necessário excluir as configurações desta placa:

[oracle@mvrac1 oracle]$ oifcfg delif -global eth0

A opção -global significa que esta configuração deverá ser válida para todos os nós, ou seja, a placa eth0 deverá ser excluída da configuração do Clusterware em todos os nós. Esta opção é utilizada pois também pode ser feita a configuração de uma interface de rede em apenas um nó, com a opção…

Vamos supor que ambas as interfaces serão excluídas pois outras serão configuradas. Vamos agora excluir a configuração da placa eth1:

[oracle@mvrac1 oracle]$ oifcfg delif -global eth1

Agora devemos configurar as placas desejadas:

[oracle@mvrac1 oracle]$ oifcfg setif -global eth3/192.168.111.0:public
[oracle@mvrac1 oracle]$ oifcfg setif -global eth4/10.0.0.0:cluster_interconnect

Lembrando que para alterar o endereço de InterConnect também é necessário alterar a informação no arquivo /etc/hosts e no arquivo de configuração da placa de rede em /etc/sysconfig/network-scripts/ifcfg-ethX.

Para o VIP, além disso, também é necessário alterar o endereço IP no OCR através do srvctl, conforme citado no post Oracle Clusterware – Rotinas Administrativas – Parte 3 – srvctl.

Um abraço!

Vinicius

Share