Pular para o conteúdo

Configurando um cluster com o Fedora Core 4 e MPICH-2

Hoje em dia, fala-se muito na utilização de clusters de computadores para a solução de problemas complexos utilizando programação paralela. Neste artigo apresento passo a passo as informações necessárias para configurar um cluster usando o Fedora Core 4 e o MPICH-2.
Fernando Simões Junior fernandosj
Hits: 42.791 Categoria: Linux Subcategoria: Configuração
  • Indicar
  • Impressora
  • Denunciar

Introdução

Com o avanço da tecnologia, os computadores pessoais (PC) tem se tornado casa vez mais rápidos e baratos, devido a este fato tem-se utilizado estes micros para soluções de computação de alto desempenho, utilizando o conceito de clusters. Neste artigo pretendo auxiliar o leitor passo a passo a configurar um cluster de micros utilizando o MPICH2, vale lembrar que o MPICH-2 serve para comunicação paralela em cluster homogêneos (todas as máquinas iguais).

Antes de começar devemos preparar os micros para tal configuração. Vamos partir do princípio que os micros já estão com o sistema operacional instalado e funcionando em rede.

Para que os micros possam trabalhar em paralelo é necessário que estes possam executar comandos uns nos outros sem a necessidade de senha. Isto pode ser realizado seguindo o artigo Fazendo RSH sem senha que escrevi.

Vamos partir do princípio que já é possível realizar rsh e rlogin de um micro para o outro sem a necessidade de senha.

   1. Introdução
   2. Exportando diretório para os outros micros do cluster
   3. Configurando as variáveis de usuários e ambientes
   4. Considerações finais
   5. Apêndice A - Comandos básicos de vi

Fazendo RSH sem senha

Como transformar seu DVD/RW em um disco de backup como se fosse um HD convencional

Adicionando pacotes do SuSE 9 via WEB

Squid com WCCP

Configurando o NRPE (Nagios Remote Plugin Executor) no Ubuntu Desktop 9.10/Server 8.04 com criptografia SSL

LXC-Container e KVM - CentOS 6.2 x86_64 rodando em outro CentOS x86_64

Integrando Bind com Active Directory (AD)

#2 Comentário enviado por fernandosj em 31/01/2008 - 09:32h
Oi Jose Luiz
Eu utilizo um programa de simulação de plasma espacial via partículas, basicamente eu resolvo um conjunto de equações eletromagnéticas para cada partícula do plasma e os campos gerados pelo movimento das próprias partículas.
Em um PC dual 4.2Ghz eu tinha que esperar de 20 a 30 dias para ver os resultados... agora no cluster com 16 processadores eu tenho que esperar só uns 5 a 8 dias.
Dependendo do aplicativo o grande gargalo é a rede, mas no meu caso não tenho este tipo de problema.
Vi seu artigo, muito bom... parabéms.
Fernando.
#3 Comentário enviado por y2h4ck em 01/02/2008 - 21:52h
Bom so para deixar registrado, usando rhost nao importa se a senha tem 8 20 ou 100 caracteres, afinao com rhost o trafego é feito em cleartext :)

[]s
#4 Comentário enviado por fernandosj em 02/02/2008 - 12:54h
Concordo com você y2h4ck, mas as senhas que me refiro são as do usuário e não as de rsh, que configuramos para não utilizar senha. Depois que ele estiver logado no cluster ele tem livre acesso aos processadores.
Abraços.
#5 Comentário enviado por wriesco em 22/08/2008 - 16:38h
Qual mpi eu posso usar quando os computadores forem heterogeneos?
Obrigado...
#6 Comentário enviado por fabiobc em 03/10/2008 - 14:23h
Exportar as variáveis de ambiente do mpich2 para os usuarios, como eu faço isso e onde estão as variaveis? e para onde eu copio?
#7 Comentário enviado por fernandosj em 03/10/2008 - 15:04h
Oi Fabiobc, você pode colocar as variáveis de ambiente no profile (.bash_profile, .bashrc dependendo da distribuição) de cada usuário.
Você tem que adicionar:

#!/bin/bash
# PATH ENVIRONMENT TO MPICH2 #
PATH=$PATH:/local-de-instalação-do-mpi/bin
export PATH
# END ENVIRONMENT TO MPICH2 #

Abraços.
#8 Comentário enviado por fabiobc em 20/10/2008 - 10:14h
local-de-instalação-do-mpi como eu faço para saber onde ele instalou? estou utilizando o fedora 9
#9 Comentário enviado por fabiobc em 20/10/2008 - 10:15h
done
make[1]: Entrando no diretório `/root/mpich2-1.0.7/src/pm/mpd'
copying python files/links into /usr/local/bin
make[1]: Saindo do diretório `/root/mpich2-1.0.7/src/pm/mpd'
make[1]: Entrando no diretório `/root/mpich2-1.0.7/src/mpe2'
Installing MPE2 include files to /usr/local/include
Installing MPE2 libraries to /usr/local/lib
Installing MPE2 utility programs to /usr/local/bin
Installing MPE2 configuration files to /usr/local/etc
Installing MPE2 system utility programs to /usr/local/sbin
Installing MPE2 man to /usr/local/man
Installing MPE2 html to /usr/local/www
Installing SLOG2SDK's lib
Installing SLOG2SDK's doc
Installing SLOG2SDK's share
Creating SLOG2SDK's bin
Installed SLOG2SDK in /usr/local
/usr/local/sbin/mpeuninstall may be used to remove the installation
Installed MPE2 in /usr/local
/usr/local/sbin/mpeuninstall may be used to remove the installation
esta menssagem que deu no final da instalação
#10 Comentário enviado por fernandosj em 20/10/2008 - 11:25h
Oi Fábio, os locais onde os arquivos do MPI estão são:
include files to /usr/local/include
libraries to /usr/local/lib
utility programs to /usr/local/bin
configuration files to /usr/local/etc

Os binários ficam em /usr/local/bin

Abraços!!

Contribuir com comentário

Entre na sua conta para comentar.