Configurando um cluster com o Fedora Core 4 e MPICH-2

Hoje em dia, fala-se muito na utilização de clusters de computadores para a solução de problemas complexos utilizando programação paralela. Neste artigo apresento passo a passo as informações necessárias para configurar um cluster usando o Fedora Core 4 e o MPICH-2.

[ Hits: 41.023 ]

Por: Fernando Simões Junior em 30/01/2008


Introdução



Com o avanço da tecnologia, os computadores pessoais (PC) tem se tornado casa vez mais rápidos e baratos, devido a este fato tem-se utilizado estes micros para soluções de computação de alto desempenho, utilizando o conceito de clusters. Neste artigo pretendo auxiliar o leitor passo a passo a configurar um cluster de micros utilizando o MPICH2, vale lembrar que o MPICH-2 serve para comunicação paralela em cluster homogêneos (todas as máquinas iguais).

Antes de começar devemos preparar os micros para tal configuração. Vamos partir do princípio que os micros já estão com o sistema operacional instalado e funcionando em rede.

Para que os micros possam trabalhar em paralelo é necessário que estes possam executar comandos uns nos outros sem a necessidade de senha. Isto pode ser realizado seguindo o artigo Fazendo RSH sem senha que escrevi.

Vamos partir do princípio que já é possível realizar rsh e rlogin de um micro para o outro sem a necessidade de senha.

    Próxima página

Páginas do artigo
   1. Introdução
   2. Exportando diretório para os outros micros do cluster
   3. Configurando as variáveis de usuários e ambientes
   4. Considerações finais
   5. Apêndice A - Comandos básicos de vi
Outros artigos deste autor

Como transformar seu DVD/RW em um disco de backup como se fosse um HD convencional

Fazendo RSH sem senha

Leitura recomendada

Instalando MariaDB no Debian e Ubuntu

Configurando o X.org

Autenticando e protegendo diretórios no Apache

Criação de usuário, grupo e permissão

DNS Cache no Bind9

  
Comentários
[1] Comentário enviado por joseluiz em 30/01/2008 - 21:22h

Qual aplicação você usou para testar seu cluster?
tambem tenho um artigo de cluster...
http://www.vivaolinux.com.br/artigos/verArtigo.php?codigo=7661

[2] Comentário enviado por fernandosj em 31/01/2008 - 09:32h

Oi Jose Luiz
Eu utilizo um programa de simulação de plasma espacial via partículas, basicamente eu resolvo um conjunto de equações eletromagnéticas para cada partícula do plasma e os campos gerados pelo movimento das próprias partículas.
Em um PC dual 4.2Ghz eu tinha que esperar de 20 a 30 dias para ver os resultados... agora no cluster com 16 processadores eu tenho que esperar só uns 5 a 8 dias.
Dependendo do aplicativo o grande gargalo é a rede, mas no meu caso não tenho este tipo de problema.
Vi seu artigo, muito bom... parabéms.
Fernando.

[3] Comentário enviado por y2h4ck em 01/02/2008 - 21:52h

Bom so para deixar registrado, usando rhost nao importa se a senha tem 8 20 ou 100 caracteres, afinao com rhost o trafego é feito em cleartext :)

[]s

[4] Comentário enviado por fernandosj em 02/02/2008 - 12:54h

Concordo com você y2h4ck, mas as senhas que me refiro são as do usuário e não as de rsh, que configuramos para não utilizar senha. Depois que ele estiver logado no cluster ele tem livre acesso aos processadores.
Abraços.

[5] Comentário enviado por wriesco em 22/08/2008 - 16:38h

Qual mpi eu posso usar quando os computadores forem heterogeneos?
Obrigado...

[6] Comentário enviado por fabiobc em 03/10/2008 - 14:23h

Exportar as variáveis de ambiente do mpich2 para os usuarios, como eu faço isso e onde estão as variaveis? e para onde eu copio?

[7] Comentário enviado por fernandosj em 03/10/2008 - 15:04h

Oi Fabiobc, você pode colocar as variáveis de ambiente no profile (.bash_profile, .bashrc dependendo da distribuição) de cada usuário.
Você tem que adicionar:

#!/bin/bash
# PATH ENVIRONMENT TO MPICH2 #
PATH=$PATH:/local-de-instalação-do-mpi/bin
export PATH
# END ENVIRONMENT TO MPICH2 #

Abraços.

[8] Comentário enviado por fabiobc em 20/10/2008 - 10:14h

local-de-instalação-do-mpi como eu faço para saber onde ele instalou? estou utilizando o fedora 9

[9] Comentário enviado por fabiobc em 20/10/2008 - 10:15h

done
make[1]: Entrando no diretório `/root/mpich2-1.0.7/src/pm/mpd'
copying python files/links into /usr/local/bin
make[1]: Saindo do diretório `/root/mpich2-1.0.7/src/pm/mpd'
make[1]: Entrando no diretório `/root/mpich2-1.0.7/src/mpe2'
Installing MPE2 include files to /usr/local/include
Installing MPE2 libraries to /usr/local/lib
Installing MPE2 utility programs to /usr/local/bin
Installing MPE2 configuration files to /usr/local/etc
Installing MPE2 system utility programs to /usr/local/sbin
Installing MPE2 man to /usr/local/man
Installing MPE2 html to /usr/local/www
Installing SLOG2SDK's lib
Installing SLOG2SDK's doc
Installing SLOG2SDK's share
Creating SLOG2SDK's bin
Installed SLOG2SDK in /usr/local
/usr/local/sbin/mpeuninstall may be used to remove the installation
Installed MPE2 in /usr/local
/usr/local/sbin/mpeuninstall may be used to remove the installation
esta menssagem que deu no final da instalação

[10] Comentário enviado por fernandosj em 20/10/2008 - 11:25h

Oi Fábio, os locais onde os arquivos do MPI estão são:
include files to /usr/local/include
libraries to /usr/local/lib
utility programs to /usr/local/bin
configuration files to /usr/local/etc

Os binários ficam em /usr/local/bin

Abraços!!


Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts