ORACLE: Problemas de Performance no Cluster Interconnect
- Siltech Consult
- 7 de out. de 2019
- 2 min de leitura
dos pontos principais em ambientes Oracle RAC que podem impactar em performance do ambiente é o Interconnect. Por isso seguem alguns tópicos que devem ser avaliados em casos de problemas de performance com interconnect. É muito importante que estes tópicos sejam discutidos com o Administrador de Redes antes de fazer os ajustes, pois na maioria das vezes dependerão do mesmo.
1) Como o RAC é dependente da conexão com o Interconnect tenha certeza de que fisicamente a rede do interconnect esteja sem problemas (switchs, cabos, interfaces todas GIGA);
2) Em alguns casos, aumentar db_file_multiblock_Read_count pode causar problemas no interconnect. Para identificar se isso está ocorrendo,verifique:
3) Em caso de lentidão no interconnect e uso intensivo de CPU pode ser uma falha conhecida como ‘packet reassembly failures’. Para identificar:
Neste caso, altere os seguinte parametros:
4) Em casos de Erro de Checksum na transmissão de dados em UDP pode ser necessário desabilitar o ‘NIC checksum offloading’.
5) Acerte o MTU correto para seu ambiente. Por default o MTU é configurado com 1500. Para bancos com db_block_Size de 8k este valor é insuficiente. Deve-se aumentá-lo. Para isso uso jumbo Frames.
6) Rede do Interconnect não dedicada. Muita vezes, são feitas economias no Interconnect deixando-o em conjunto com outra rede. O interconnect deve ser dedicado, em um switch isolado em uma sub-rede sem comunicação com as outras. Quando deixamos o interconnect compartilhado com outras rede, além de causarmos problemas no interconnect podemos causar lentidão na rede;
7) A conexão do Interconnect deve ser Layer 2 ligada diretamente ao switch (ou switchs). O ideal é não ter equipamentos intermediários como roteadores neste caminho. Pode-se usar o traceroute para identificar isso.
8) NADA de IPFILTER / IPTABLES ou qualquer firewall no interconnect;
9) Tenha o cuidado de deixar TODO o ambiente identifico. Isso inclui mesmo modelo/marca de placas de rede em todos os nós incluindo o último patch instalado em ambos;
10) Não use protocolos `não padrão` como por exemplo LLT e HMP pois provavelmente serão difíceis de configurar. Dê preferencia por 1GbE ou então no máximo IP on Infinitbanco ou 10GbE também podem ser usados e são certificados;
11) Uso de Bound mal configurado pode causar grandes problemas. Se o bound (ou agregração de placas de rede) não for feito corretamente, isso pode causar grandes instabilidade nas conexões (com constantes UP/DOWN das portas).
12) Jumbo Frames configurados incorretamente também podem ocasionar vários problemas. Todos os componentes de rede que farão parte do interconnect devem estar prontos e configurados para uso de Jumbo Frames. Não adianta configurar todas as placas para trabalhar com MTU de 9000 mas deixar os Switch com o default de 1500. Com netstat -s é possível identificar Frame Fragmentation ou então Reassembly Errors;
13) Cuidado com as configurações de Half-Duplex/Full-Duplex. Mantenha ambos em Full-Duplex (certifique-se de que o switch esteja configurado para isso);
14) Configure corretamente o `Flow-Control` entre os NICs e os Switchs. Na maior parte dos casos, mantê-los em ON é a melhor opção:
15) Atualize o Switch as placas de rede com os últimos firmwares/updates. Mantenha o último driver disponível instalado no SO para estes componentes;
16) Caso esteja usando um switch compartilhado para o interconnect em uma VLan habilite QoS para que o Interconnect tenha prioridade sobre todas as outras redes;
Dúvidas? silverio@siltechconsult.com.br

Comentários