Etapa 1: Preparar-se para sua implantação
A primeira etapa na implantação do cluster HPC é tomar decisões importantes, como decidir o número de nós principais e escolher uma topologia de rede para o cluster. As tarefas a seguir ajudarão você a se preparar para a implantação do cluster.
1.1: Examinar os requisitos do sistema
Se você ainda não fez isso, examine os requisitos do sistema de para o Microsoft HPC Pack 2019. Observe que o HPC Pack tem requisitos diferentes para diferentes funções de nó e opções de implantação. Talvez você queira revisar os requisitos do sistema novamente depois de finalizar as decisões para sua implantação.
1.2: Decida se deseja configurar o nó principal para alta disponibilidade
Se você precisar continuar executando trabalhos de HPC durante uma interrupção planejada ou não planejada em serviços em um computador de nó principal, você poderá planejar configurar o nó principal para alta disponibilidade. Para fazer isso, você precisará instalar o HPC Pack em pelo menos dois computadores de nó principais.
1.3: Decidir se deseja implantar seu cluster com bancos de dados remotos
O HPC Pack 2019 requer e dá suporte ao Microsoft SQL Server 2014 ou a uma versão posterior. O HPC Pack usa cinco bancos de dados diferentes do SQL Server para armazenar dados de gerenciamento de cluster, agendamento de trabalho, relatório, diagnóstico e monitoramento. Você pode instalar um ou mais desses cinco bancos de dados HPC em um ou mais servidores remotos, em vez de instalá-los no nó principal do cluster. Por padrão, o HPC Pack instala o SQL Server Express 2019 no nó principal e cria os bancos de dados HPC no nó principal se você escolher um único nó de cabeçalho. Se você optar por implantar três nós principais, a vantagem de instalar os bancos de dados HPC em um ou mais servidores remotos é que ele salva recursos no nó principal, ajudando a garantir que ele possa gerenciar o cluster com eficiência.
Importante
O uso do SQL Server 2019 Express no nó principal é recomendado para clusters de prova de conceito ou de desenvolvimento e para clusters de produção menores. Você deve considerar a instalação dos bancos de dados HPC em um ou mais servidores remotos se o cluster tiver mais de 256 nós, você planeja configurar o nó principal para alta disponibilidade ou os requisitos de taxa de transferência de trabalho e relatório podem exceder os recursos do SQL Server 2019 Express.
Para instalar os bancos de dados HPC em um servidor remoto, esse servidor deve estar executando a edição Standard ou Enterprise do SQL Server 2008 R2 ou posterior e configurado para trabalhar com o HPC Pack. Antes de instalar o HPC Pack com bancos de dados remotos, peça ao administrador do banco de dados que execute o script SetupHpcDatabase.ps1 na pasta Instalação ou execute ou modifique manualmente as tarefas no script. O script cria automaticamente os bancos de dados necessários e os logons da instância do SQL e os usuários de banco de dados para a conta que instalará o HPC Pack e para a conta de computador para serviços HPC. Para obter informações detalhadas, consulte implantando um cluster do Windows HPC com o guia passo a passo de bancos de dados remotos.
1.4: Decidir que tipo de nós você deseja adicionar ao cluster e quantos
Você pode adicionar os seguintes tipos de nós ao cluster local:
- nós de computação – nós de computação são usados para executar trabalhos. Esse tipo de nó não pode se tornar um tipo diferente de nó (ou seja, alterar funções) sem ser reimplantado.
- nós do Broker – nós de agente do WCF (Windows Communication Foundation) são usados para rotear chamadas WCF dos clientes soa (arquitetura de Service-Oriented) para os serviços SOA em execução em nós em seu cluster. Esse tipo de nó pode alterar as funções para se tornar um nó de computação sem ser reimplantado.
- nós de estação de trabalho e nós de servidor não gerenciados – nós de estação de trabalho e nós de servidor não gerenciados são computadores em sua organização que também podem executar trabalhos, mas não são recursos de cluster dedicados. Eles podem ser agendados para ficarem disponíveis para executar trabalhos em horários específicos ou podem ser disponibilizados sob demanda. Esse tipo de nó não pode alterar as funções.
- nós do Microsoft Azure – se você tiver uma assinatura do Microsoft Azure, poderá adicionar nós do Azure sob demanda para aumentar a capacidade do cluster quando precisar. Como nós de computação, nós de estação de trabalho e nós de servidor não gerenciados, os nós do Azure podem executar trabalhos. Ao adicionar nós do Azure, você também configura um número fixo ou variável de nós proxy em sua implantação do Azure para facilitar a comunicação entre o nó principal local e os nós do Azure.
- nós de IaaS do Microsoft Azure – se você tiver uma assinatura do Microsoft Azure, poderá adicionar nós iaaS do Microsoft Azure sob demanda para aumentar a capacidade do cluster quando precisar.
Para obter mais informações sobre funções de nó em um cluster do Windows HPC, consulte Noções básicas sobre funções de nó no Microsoft HPC Pack.
Quando o HPC Pack é instalado, dependendo do tipo de nó que está sendo criado, diferentes recursos são instalados. Esses recursos determinam a função que o nó executará no cluster. Em alguns casos, um nó é capaz de alterar funções porque tem os recursos necessários para executar uma função diferente. A capacidade de alterar funções é um aspecto importante que você precisa considerar ao decidir o tipo de nós que deseja adicionar ao cluster.
Outra decisão importante que você precisa tomar é o número de nós que você deseja adicionar. Se você estiver adicionando nós de agente, também precisará decidir quantos nós de computação você adicionará para cada nó do agente que está disponível no cluster. A taxa de nós do agente para nós de computação pode afetar o desempenho do cluster.
Se você planeja adicionar nós do Azure, deve considerar o número de nós proxy ideal para o número de nós implantados no Azure e os trabalhos que serão executados nesses nós. Os nós proxy são necessários para comunicação com o nó principal local e podem ser um gargalo para determinados tamanhos de cluster e cargas de trabalho.
Por fim, se você quiser configurar o nó principal ou um nó do agente em um cluster de failover, precisará de um computador adicional para cada nó de cluster de failover configurado, o que pode reduzir o número de nós de computação que você pode adicionar ao cluster.
1.5: Escolha o domínio do Active Directory para seu cluster
Do HPC Pack 2016 em diante, o HPC Pack pode ser instalado em um computador que não é ingressado no domínio, no entanto, esse recurso é projetado apenas para clusters HPC no Azure. Para um cluster HPC local, você deve criar o cluster em um domínio do Active Directory.
Os nós em seu cluster HPC local serão membros de um domínio do Active Directory. Antes de implantar seu cluster local, escolha o domínio do Active Directory que você usará para o cluster HPC.
Dependendo do ambiente do Active Directory em sua organização, pode ser útil configurar uma UO (unidade organizacional) separada para os computadores que serão membros do cluster HPC. Com uma UO separada, se necessário, políticas e configurações diferentes podem ser aplicadas aos nós de cluster do que aos outros computadores em sua organização.
Se você não tiver um domínio do Active Directory ao qual pode ingressar no cluster ou se preferir não ingressar em um domínio existente, poderá criar um novo domínio do Active Directory. Para obter mais informações sobre como instalar a função Active Directory Domain Services, consulte Implantando o AD DS (Active Directory Domain Services) em suaEmpresarial.
Considerações adicionais
O nó principal do HPC Pack 2019 não poderá ser instalado em um controlador de domínio se você planeja instalar um cluster de alta disponibilidade com o Microsoft Service Fabric. Isso ocorre porque o cluster do Microsoft Service Fabric não pode ser implantado em um controlador de domínio.
Se você planeja adicionar nós de estação de trabalho ou nós de servidor não gerenciados ao cluster HPC, esses computadores poderão ser ingressados em qualquer domínio do Active Directory que tenha uma relação de confiança estabelecida com o domínio ao qual o nó principal é ingressado.
1.6: Escolha uma conta de domínio para adicionar nós
Para instalar o HPC Pack no nó principal, você deve estar conectado com uma conta de usuário de domínio que seja membro do grupo Administradores no computador de nó principal. Além disso, durante o processo de configuração do nó principal do HPC após a instalação do HPC Pack, você deve fornecer credenciais para uma conta de usuário de domínio que será usada para adicionar nós locais e para a configuração do sistema desses nós. Você deve escolher uma conta existente ou criar uma nova conta antes de iniciar a implantação do cluster.
Considerações para escolher uma conta de usuário
- A conta de usuário escolhida deve ser uma conta de domínio com privilégios suficientes para criar contas de computador do Active Directory para os nós e para ingressar os nós no domínio.
- Se as políticas da sua organização o impedirem de usar uma conta de domínio que possa adicionar novos computadores ao domínio, você precisará pedir ao administrador de domínio para criar previamente os objetos de computador para você no Active Directory Domain Services antes de implantar seus nós. Para obter mais informações, consulte implantar nós com objetos de computador pré-criados no Active Directory.
- Se parte da implantação exigir acesso aos recursos na rede corporativa, a conta de usuário deverá ter as permissões necessárias para acessar esses recursos , por exemplo, arquivos de instalação disponíveis em um servidor de rede.
- Se você quiser reiniciar os nós remotamente usando o Gerenciador de Cluster de HPC, a conta deverá ser um membro do grupo de Administradores local no nó principal. Esse requisito só será necessário se você não tiver ferramentas de controle de energia com script que você pode usar para reiniciar remotamente os nós.
1.7: Escolher uma topologia de rede para seu cluster
O HPC Pack dá suporte a cinco topologias de cluster. Essas topologias são distinguidas pela forma como os nós no cluster são conectados uns aos outros e à rede corporativa. As cinco topologias de cluster com suporte são:
- Topologia 1: nós de computação isolados em uma rede privada
- Topologia 2: todos os nós em redes corporativas e privadas
- Topologia 3: nós de computação isolados em redes privadas e de aplicativos
- Topologia 4: todos os nós em redes empresariais, privadas e de aplicativos
- Topologia 5: Todos os nós em uma rede corporativa
Para obter mais informações sobre cada topologia de rede e cada rede de cluster HPC, consulte Apêndice 1:de Rede de Cluster HPC, mais adiante neste guia.
Ao escolher uma topologia de rede, você deve levar em consideração sua infraestrutura de rede existente e o tipo de nós que você adicionará ao cluster:
- Decida qual rede na topologia escolhida servirá como a rede corporativa, a rede privada e a rede de aplicativos.
- Não tenha o adaptador de rede conectado à rede corporativa no nó principal na configuração automática (ou seja, o endereço IP desse adaptador não começa com: 169.254). Esse adaptador deve ter um endereço IP válido, atribuído dinamicamente ou manualmente (estático).
- Se você escolher uma topologia que inclua uma rede privada e estiver planejando adicionar nós ao cluster de bare-metal, faça o seguinte:
- Verifique se não há servidores PXE (Ambiente de Execução de Pré-Inicialização) na rede privada.
- Se você quiser usar um servidor DHCP existente para sua rede privada, verifique se ele está configurado para reconhecer o nó principal como o servidor PXE na rede.
- Se você quiser habilitar o servidor DHCP no nó principal para as redes privadas ou de aplicativos e houver outros servidores DHCP conectados a essas redes, desabilite esses servidores DHCP.
- Se você tiver um servidor DNS (Sistema de Nomes de Domínio) existente conectado à mesma rede que os nós em seu cluster, nenhuma ação será necessária, mas os nós serão automaticamente desregistrados desse servidor DNS.
- Entre em contato com o administrador do sistema para determinar se a segurança do Protocolo de Internet (IPsec) é imposta em seu domínio por meio da Política de Grupo. Se o IPsec for imposto em seu domínio por meio da Política de Grupo, você poderá enfrentar problemas durante a implantação. Uma solução alternativa é tornar o nó principal um servidor de limites IPsec para que os outros nós em seu cluster possam se comunicar com o nó principal durante a inicialização PXE.
- Se você quiser adicionar nós de estação de trabalho ou nós de servidor não gerenciados ao cluster, a topologia 5 (todos os nós em uma rede corporativa) é a topologia recomendada, mas há suporte para outras topologias. Se você quiser adicionar nós de estação de trabalho em outras topologias, consulte o conteúdo em Adicionando nós de estação de trabalho a um cluster do Windows HPC.
- Se você quiser adicionar nós de agente ao seu cluster, eles deverão estar conectados à rede em que os clientes que estão iniciando sessões SOA estão conectados (geralmente a rede corporativa) e à rede em que os nós que estão executando os serviços SOA estão conectados (se diferente da rede em que os clientes estão conectados).
- Se você quiser adicionar nós do Azure ao cluster, o cluster HPC poderá ser configurado em qualquer topologia de rede de cluster compatível com o HPC Pack. O nó principal e qualquer computador cliente usado para gerenciar o cluster e que precise de uma conexão com o Azure devem ser capazes de se conectar pela Internet aos serviços do Azure.
1.8: Preparar certificados usados para proteger a comunicação entre nós HPC
O cluster do Microsoft HPC Pack 2016 (e posterior) usa o certificado X.509 para proteger a comunicação entre os nós HPC. Você pode usar um mesmo certificado em todos os nós de HPC ou usar dois certificados diferentes:
- Certificado para o nó principal – esse certificado é instalado no nó principal (ou nós principais) para proteger o cluster do Service Fabric (se usado para HA) e a comunicação entre nós HPC. E se o certificado for autoassinado, você também o importará para o certificado do Azure Key Vault se planeja implantar nós de computação iaaS do Azure com o recurso Burst para vM iaaS do Azure.
- Certificado para outros nós – esse certificado é instalado nos nós HPC que não sejam nós de cabeçalho (ou nós principais) para proteger a comunicação entre nós HPC. Se você optar por usar um mesmo certificado em todos os nós HPC, esse será o mesmo certificado com Certificado para o nó principal.
Os certificados devem atender aos seguintes requisitos:
- Ter uma chave privada capaz dede troca de chaves;
- O uso de chave inclui
de Assinatura Digital, de Codificação de Chaves, de Contrato de Chave ede Assinatura de Certificado de ; - O uso aprimorado de chaves inclui de Autenticação de Cliente e de Autenticação de Servidor;
- Se dois certificados diferentes forem usados, eles deverão ter um mesmo nome de entidade.
Se o certificado for usado para proteger cluster do Service Fabric também, ele deverá atender aos seguintes requisitos adicionais:
- O provedor do certificado deve ser do Provedor Criptográfico do Microsoft Enhanced RSA e do AES;
- O comprimento da chave RSA deve ser 2048 bits.
Se você ainda não tiver certificados que atendam a esses requisitos, poderá solicitar os certificados de uma autoridade de certificação ou, como alternativa, você pode usar certificados autoassinados. Fornecemos uma ferramenta de script do PowerShell CreateHpcCertificate.ps1 certificado na pasta Instalação da mídia de instalação do HPC Pack para gerar um certificado autoassinado.
.\CreateHpcCertificate.ps1 -CommonName "HPCPackNodeCommunication" -Path "d:\hpccomm.pfx" -Password (ConvertTo-SecureString "P@ssw0rd" -AsPlainText -Force)
Se você estiver usando um certificado assinado pela AC (autoridade de certificação) ou um certificado autoassinado existente, poderá executar o comando a seguir e verificar o valor de KeySpec, Subject, Key Usage, Enhanced Key Usage, Public Key Length, e Provider.
CertUtil.exe -p "<password>" -v -dump <path-of-pfxFile>
Se o valor de Assunto, Uso de Chave, de Uso Avançado de Chave ou Comprimento da Chave Pública não corresponder, você deverá gerar novamente o certificado.
Se o valor de KeySpec (deverá ser "1 -- AT_KEYEXCHANGE") ou do Provedor não corresponder, você não precisa gerar novamente o certificado, executar o comando a seguir para importar o certificado com modificado valores KeySpec e Provider e, em seguida, executar certlm.msc para exportar o certificado (incluindo chave privada) para um novo arquivo PFX que atenda aos requisitos.
CertUtil.exe -f -p "<password>" -csp "Microsoft Enhanced RSA and AES Cryptographic Provider" -importpfx "<path-of-pfxFile>" AT_KEYEXCHANGE
Se você decidiu usar um único nó de cabeçalho na Etapa 1.2 e deseja usar um certificado autoassinado, também poderá gerar um certificado autoassinado no assistente de Instalação durante a instalação do nó principal.
Se você decidir usar um certificado autoassinado para outros nós, poderá gerar um certificado autoassinado no Gerenciador de Cluster do HPC no Etapa 3.4, posteriormente neste guia.
1.9: Preparar-se para a integração das ferramentas de controle de energia com script (opcional)
O console de administração do cluster (HPC Cluster Manager) inclui ações para iniciar, desligar e reinicializar nós remotamente. Essas ações são vinculadas a um arquivo de script (CcpPower.cmd) que executa essas operações de controle de energia usando comandos do sistema operacional. Você pode substituir os comandos do sistema operacional padrão nesse arquivo de script por seus próprios scripts de controle de energia, como scripts IPMI (Intelligent Platform Management Interface) fornecidos pelo fornecedor de soluções de cluster.
Em preparação para essa integração, você deve obter todos os scripts necessários, arquivos .dll e outros componentes das ferramentas de controle de energia. Depois de obter todos os componentes necessários, teste-os de forma independente e verifique se eles funcionam conforme o esperado nos computadores que você implantará como nós em seu cluster.
Para obter informações sobre como modificar CcpPower.cmd para integrar suas próprias ferramentas de controle de energia com script, consulte Apêndice 5: ferramentas de controle de energia com script, mais adiante neste guia.