Configurando um cluster com o Fedora Core 4 e MPICH-2

Hoje em dia, fala-se muito na utilização de clusters de computadores para a solução de problemas complexos utilizando programação paralela. Neste artigo apresento passo a passo as informações necessárias para configurar um cluster usando o Fedora Core 4 e o MPICH-2.

[ Hits: 41.020 ]

Por: Fernando Simões Junior em 30/01/2008


Considerações finais



Se todos os passos anteriores estiverem corretos, acredito que os usuários do novo cluster terão bastante recurso computacional para utilizarem. Vale lembrar que a responsabilidade de um usuário de cluster deve ser comparável com a do próprio administrador, portanto, muito cuidado com as suas senhas, se elas caírem em mãos erradas um usuário mal intencionado pode utilizar todo seu recurso computacional para uso indevido.

SEMPRE UTILIZE SENHAS COM MAIS DE 8 DÍGITOS E COM CARACTERES ALFANUMÉRICO (LETRAS E NÚMEROS). EX: W5-*D+Jeh@.

QUANTO MAIS COMPLICADA FOR A SUA SENHA, MAIS SEGURO SERÁ O CLUSTER, E VOCÊ EVITA QUE OS PROCESSADORES SEJAM UTILIZADOS POR PESSOAS MAL INTENCIONADAS, COMO HACKERS E ENVIO DE SPAM.

Página anterior     Próxima página

Páginas do artigo
   1. Introdução
   2. Exportando diretório para os outros micros do cluster
   3. Configurando as variáveis de usuários e ambientes
   4. Considerações finais
   5. Apêndice A - Comandos básicos de vi
Outros artigos deste autor

Fazendo RSH sem senha

Como transformar seu DVD/RW em um disco de backup como se fosse um HD convencional

Leitura recomendada

Instalando Wireless USB Adapter D-Link DWL-G122 no Debian

Instalando Slackware "na marra"

Configurando o X no Slackware

Configurando wireless sem o ndiswrapper (Realtek 8180)

Instalação da Broadcom 1390 no Debian Etch

  
Comentários
[1] Comentário enviado por joseluiz em 30/01/2008 - 21:22h

Qual aplicação você usou para testar seu cluster?
tambem tenho um artigo de cluster...
http://www.vivaolinux.com.br/artigos/verArtigo.php?codigo=7661

[2] Comentário enviado por fernandosj em 31/01/2008 - 09:32h

Oi Jose Luiz
Eu utilizo um programa de simulação de plasma espacial via partículas, basicamente eu resolvo um conjunto de equações eletromagnéticas para cada partícula do plasma e os campos gerados pelo movimento das próprias partículas.
Em um PC dual 4.2Ghz eu tinha que esperar de 20 a 30 dias para ver os resultados... agora no cluster com 16 processadores eu tenho que esperar só uns 5 a 8 dias.
Dependendo do aplicativo o grande gargalo é a rede, mas no meu caso não tenho este tipo de problema.
Vi seu artigo, muito bom... parabéms.
Fernando.

[3] Comentário enviado por y2h4ck em 01/02/2008 - 21:52h

Bom so para deixar registrado, usando rhost nao importa se a senha tem 8 20 ou 100 caracteres, afinao com rhost o trafego é feito em cleartext :)

[]s

[4] Comentário enviado por fernandosj em 02/02/2008 - 12:54h

Concordo com você y2h4ck, mas as senhas que me refiro são as do usuário e não as de rsh, que configuramos para não utilizar senha. Depois que ele estiver logado no cluster ele tem livre acesso aos processadores.
Abraços.

[5] Comentário enviado por wriesco em 22/08/2008 - 16:38h

Qual mpi eu posso usar quando os computadores forem heterogeneos?
Obrigado...

[6] Comentário enviado por fabiobc em 03/10/2008 - 14:23h

Exportar as variáveis de ambiente do mpich2 para os usuarios, como eu faço isso e onde estão as variaveis? e para onde eu copio?

[7] Comentário enviado por fernandosj em 03/10/2008 - 15:04h

Oi Fabiobc, você pode colocar as variáveis de ambiente no profile (.bash_profile, .bashrc dependendo da distribuição) de cada usuário.
Você tem que adicionar:

#!/bin/bash
# PATH ENVIRONMENT TO MPICH2 #
PATH=$PATH:/local-de-instalação-do-mpi/bin
export PATH
# END ENVIRONMENT TO MPICH2 #

Abraços.

[8] Comentário enviado por fabiobc em 20/10/2008 - 10:14h

local-de-instalação-do-mpi como eu faço para saber onde ele instalou? estou utilizando o fedora 9

[9] Comentário enviado por fabiobc em 20/10/2008 - 10:15h

done
make[1]: Entrando no diretório `/root/mpich2-1.0.7/src/pm/mpd'
copying python files/links into /usr/local/bin
make[1]: Saindo do diretório `/root/mpich2-1.0.7/src/pm/mpd'
make[1]: Entrando no diretório `/root/mpich2-1.0.7/src/mpe2'
Installing MPE2 include files to /usr/local/include
Installing MPE2 libraries to /usr/local/lib
Installing MPE2 utility programs to /usr/local/bin
Installing MPE2 configuration files to /usr/local/etc
Installing MPE2 system utility programs to /usr/local/sbin
Installing MPE2 man to /usr/local/man
Installing MPE2 html to /usr/local/www
Installing SLOG2SDK's lib
Installing SLOG2SDK's doc
Installing SLOG2SDK's share
Creating SLOG2SDK's bin
Installed SLOG2SDK in /usr/local
/usr/local/sbin/mpeuninstall may be used to remove the installation
Installed MPE2 in /usr/local
/usr/local/sbin/mpeuninstall may be used to remove the installation
esta menssagem que deu no final da instalação

[10] Comentário enviado por fernandosj em 20/10/2008 - 11:25h

Oi Fábio, os locais onde os arquivos do MPI estão são:
include files to /usr/local/include
libraries to /usr/local/lib
utility programs to /usr/local/bin
configuration files to /usr/local/etc

Os binários ficam em /usr/local/bin

Abraços!!


Contribuir com comentário




Patrocínio

Site hospedado pelo provedor RedeHost.
Linux banner

Destaques

Artigos

Dicas

Tópicos

Top 10 do mês

Scripts