Professional Documents
Culture Documents
CORNEAU IBMs General Parallel File System An Ove VER TRADUZIDO
CORNEAU IBMs General Parallel File System An Ove VER TRADUZIDO
CORNEAU IBMs General Parallel File System An Ove VER TRADUZIDO
Glen Corneau
Índice
• Recursos do GPFS
• Visão geral
• Arquiteturas
• Desempenho
• RAS
• Terminologia do GPFS
• Depuração GPFS
• Informações Adicionais
3
Machine Translated by Google
Bancos de dados
O GPFS permite:
Conexões
ÿ Armazenamento comum
Gerenciamento
de alto desempenho.
Centralizado
ÿ Eliminando cópias de dados. Monitoramento
Arquivo Automatizado
Gerenciamento
usar. Arquivo
Disponibilidade
ÿ Gerenciamento Migração de dados
simplificado de arquivos.
Replicação
Cópia de segurança
Aplicativo
Servidores
Machine Translated by Google
O que é GPFS?
• Fornece recursos avançados não POSIX (por exemplo, envio de dados, dicas)
• A conversão para GPFS não requer alterações no código do aplicativo, desde que o código
funcione em um ambiente compatível com POSIX
• O acesso simultâneo a arquivos exige que o aplicativo esteja ciente do sistema de arquivos paralelo
SAN
SAN
Recursos de desempenho
• Suporte para blocos grandes (com suporte para subblocos) (até 4 MB)
• Bloqueio de intervalo de bytes (em vez de bloqueio de arquivo ou extensão) disponível com os sinalizadores
de abertura de arquivo de aplicativo adequados.
• Otimizações de padrão de acesso (por exemplo, sequencial, strided, para trás) • Cache
• vmo / ioo não afeta diretamente o pagepool (ao contrário dos ajustáveis JFS/JFS2)
• Daemon multithread de 64 bits que suporta pré-busca e write-behind • Funções de
(ou seja, vários caminhos independentes para os mesmos dados de arquivo de qualquer lugar
no cluster)
Recursos RAS
• Os discos podem ser fornecidos ao cluster por meio de um servidor primário e secundário ou ser
visto por um grupo (ou todos) de nós. Portanto, a perda de um nó de servidor ou de um adaptador não resulta
em perda de acesso aos dados.
• Dados e metadados também podem ser replicados separadamente (semelhante ao espelhamento) para
remover um subsistema de armazenamento como um SPOF.
• GPFS que utiliza subsistemas de armazenamento com RAID integrado protege contra perda de
dados e perda de acesso aos dados.
Recursos RAS
• A reserva persistente SCSI-3 pode ser usada para failover rápido de clusters de 2 nós
• O acesso NSD pode fazer failover para a rede a partir da SAN e vice-versa, se desejado
A integração de backup paralelo com o TSM agora usa mecanismo de política e oferece
suporte incremental para sempre
Ambientes Suportados
• Verifique o FAQ para obter detalhes sobre níveis de kernel, patches, etc.
Ambientes Suportados
• Ambientes de Hardware:
• GPFS suporta o uso de recursos PowerVM (ou seja, Ethernet Virtual, SCSI Virtual,
Adaptador Ethernet Compartilhado).
• O GPFS não foi testado oficialmente com Live Partition Mobility ou NPIV
Ambientes Suportados
• O Controle de Acesso Baseado em Função (RBAC) não é suportado pelo GPFS e está desativado
por padrão.
• As partições de carga de trabalho (WPARs) ou chaves de proteção de armazenamento não são exploradas por
GPFS.
Interconexões suportadas
Limites do GPFS
• 2.147.483.648
• Multiplataforma para Linux: 3.794 nós (>512 nós requerem revisão da IBM)
• AIX + Multiplataforma para Linux: 3906 (3794 Linux, 112 nós AIX)
• AIX/Linux de 64 bits: limitado pelo driver do dispositivo e sistema operacional (>2 TB)
• AIX de 32 bits: 1 TB
• Registro em diário do sistema de arquivos - registra informações sobre operações executadas nos
metadados do sistema de arquivos como transações atômicas que podem ser reproduzidas
• API de gerenciamento de dados (DMAPI) - A interface padrão do setor permite que aplicativos de
terceiros (por exemplo, TSM) implementem gerenciamento de armazenamento hierárquico
• Pools de armazenamento externo permitem a migração automatizada de arquivos de/para sistemas HSM
(ou seja, fita).
O GPFS pode ser configurado com um número menor de nós “confiáveis” que possuem
recursos de shell remoto para todos os outros nós (nós administrativos)
O GPFS permite que scripts de usuário definidos sejam executados após eventos GPFS específicos
Licenciamento
• Compartilhe dados através de qualquer aplicativo como NFS, CIFS, FTP ou HTTP
• Troca de dados entre nós que montam localmente o mesmo arquivo GPFS
sistema
Aplicativo
Aplicativo GPFS ó li
Colocação
(ILM): pools de armazenamento, conjuntos de Posix
GPFS
P
li
c
sim
Colocação ó
P c
arquivos, políticas GPFS
ó li sim
c
li sim
c
• Pool de armazenamento – grupo de LUNs sim
Nó Gerenciador do GPFS
Protocolo RPC GPFS
• Conjunto de arquivos: subárvore nomeada de •Gerenciador de cluster
•Gerenciador de
bloqueio •Gerenciador
um de cotas •Gerenciador de
alocação •Gerenciador de políticas
lento e depois para fita • Coloque os arquivos de mídia Ouro Prata Estanho
18
Machine Translated by Google
Recuperação de desastres
Cluster disperso ativo/ativo
• A figura à esquerda é um
cluster geograficamente disperso
• O armazenamento do
site A é duplicado no site B com
Replicação GPFS
Recuperação de desastres
Ativo/Passivo com Replicação de Armazenamento Assíncrono
• Usa “mmfsctl
syncFSconfig” para configurar
as definições do sistema de
arquivos no site de recuperação
• A replicação do subsistema
de armazenamento mantém o
LUNs sincronizados
• Configuração e
failover mais envolvidos
Recuperação de desastres
Ativo/Ativo com replicação de armazenamento assíncrona
Recuperação de desastres
Backup on-line com FlashCopy
• Pode ser usado para fazer cópias off-site dos LUNs que compõem um
Sistema de arquivos GPFS
• Não deve ser confundido com snapshots GPFS que fazem um point-in-in-filesystem
cópia de tempo para fins de backup.
• ou seja, o comando GPFS mmbackup que funciona com o TSM utiliza isso em
As tampas.
• Pode ser usado tanto para disponibilidade (backup DR) quanto para outros fins (cópias derivadas
para backups lentos “em fita”, análise adicional de dados, etc.).
• As versões 3.1 e 3.2 do GPFS são certificadas em AIX 5.3 e AIX 6.1 com
• Oráculo 11.1
• Obtenha uma cópia do Artigo 302806.1 do Oracle Metalink, intitulado “IBM General Parallel
File System (GPFS) e Oracle RAC no AIX 5L e IBM eServer pSeries” e Artigo 282036.1
• O Oracle RAC detecta o uso do GPFS para seus arquivos de banco de dados e abrirá
colocá-los no modo Direct I/O. Isso ignora o pagepool do GPFS para arquivos de banco de dados,
mas ainda é usado para outros arquivos.
• O HACMP não é necessário para implementações do Oracle RAC 10g (ou posterior).
• Sugeriu que a votação e o OCR não estivessem em sistemas de arquivos GPFS, mas
em vez disso, em dispositivos brutos compartilhados (hdisks)
• Para sistemas de arquivos que contêm bancos de dados Oracle grandes, configure o tamanho
do bloco do sistema de arquivos GPFS para um valor grande:
Terminologia GPFS
• Sistemas de arquivos
• Funções do nó:
• Gerenciador de configuração
• Quórum de nós
NSD
• EtherChannel compatível
Discos
• Para conectividade de armazenamento onde você tem vários (normalmente 2) caminhos para o
disco (ou seja, dois adaptadores Fibre Channel) e usando um driver de dispositivo que
reconhece vários caminhos, você normalmente terá um dispositivo virtual que representa
ambos os caminhos. Por exemplo:
Discos
• São esses dispositivos virtuais que são usados como entrada para GPFS para
definir “discos” GPFS.
• O GPFS usa o conceito de grupos de falhas para disponibilidade dos dados do disco (dados
e metadados) que compõem os sistemas de arquivos
• Os discos que possuem o mesmo “caminho” (ou dependem do mesmo dispositivo físico) para o
host estão no mesmo grupo de falhas. Exemplos:
Sistemas de arquivos
• A disponibilidade do sistema de arquivos é fornecida (no nível FS) através do uso de replicação
de dados e metadados.
• Subsistemas de disco que usam vários níveis de RAID internamente são aceitáveis!
FG1 FG2
NSD1 NSD3
NSD2 NSD4
/gpfs/fs1
• Com a replicação habilitada, duas cópias de dados e/ou metadados são mantidas, cada uma em NSDs
em grupos de falhas separados.
• A falha de um disco fará com que o GPFS marque o disco como desativado e continue a utilizá-lo
a outra cópia exclusivamente até que uma ação administrativa ou de reparo seja realizada
Sistemas de arquivos
• Os sistemas de arquivos GPFS são criados e distribuídos nos discos GPFS que
compõem o sistema de arquivos.
• Os sistemas de arquivos são distribuídos em discos usando o tamanho de bloco especificado durante
a criação do FS. O tamanho do bloco não pode ser alterado após a criação do sistema de arquivos!
/gpfs/algum arquivo
Bloco 1 Bloco
Bloco 2
1 Bloco 3
Bloco 4
Bloco 5
3 Bloco 6
Bloco 7 Bloco 8
5 Bloco 9
Preto 10 Bloco
Preto 11
7 Preto 12
Bloco 9
Funções do nó:
Servidor de dados de cluster
• No mínimo, um servidor de dados do cluster primário deve ser definido para atuar
como o repositório primário do arquivo de informações de configuração do
cluster GPFS (/var/mmfs/etc/mmsdrfs).
• Se o seu servidor primário falhar e você não tiver designado um servidor secundário,
os arquivos de dados de configuração do cluster GPFS ficarão inacessíveis e
quaisquer comandos administrativos do GPFS que precisem de acesso
ao arquivo de configuração falharão. Da mesma forma, quando o daemon GPFS
for inicializado, pelo menos um dos dois servidores de configuração de
cluster GPFS deverá estar acessível.
Funções do nó:
Gerenciador de configuração
• O Gerenciador de Configuração:
• Seleciona o gerenciador do sistema de arquivos para cada sistema de arquivos do gerenciador disponível
nós
Funções do nó:
• Gerenciamento da alocação de espaço em disco (controla quais regiões de discos são alocadas
para cada nó, permitindo uma alocação paralela eficaz de espaço).
• Gerenciamento de cotas
Quorum de nós
• Quorum de nós do GPFS permite que algum subconjunto da população total de nós
seja designado como nós de quorum explícitos.
• Clusters grandes atingem o quorum mais rapidamente e podem ser protegidos contra falhas
mais rapidamente com menos nós de quorum
• Os clusters também podem conter qualquer número de nós que não sejam de quórum.
Tarefas administrativas
• Comandos Comuns
• Outras tarefas
• Depuração
Comando: mmadddisk
• Requer um arquivo descritor de disco modificado como entrada (ou seja, NSDs)
• Você também pode escolher quais nós participarão da redistribuição. Quanto mais
nós participarem, menor será o tempo necessário.
Comando:mmdeldisk
• Você também pode escolher quais nós participarão da redistribuição. Quanto mais
nós participarem, menor será o tempo necessário.
Comandos Comuns
• mmlscluster/mmchcluster
• mmlsconfig/mmchconfig
Comandos Comuns
• mmlsdisk/mmchdisk
• mmlsnsd/mmchnsd
• Adicionar/remover nós
• mmaddnode/mmdelnode
Outras tarefas
• comando mmchnsd
o sistema de arquivos deve ser desmontado
• Adicionando inodes a um FS D
• mmchfs -F#
• Criar/excluir instantâneos D
Outras tarefas
• mmchconfig tiebreakerDisks=”nsd1;nsd2;nsd3”
• Os NSDs podem fazer parte de sistemas de arquivos, não precisam ser dedicados.
• mmchconfig tiebreakerDisks=não
Outras tarefas
• mmchmgr
• montagem mml
• mmrestripes
Outras tarefas
• mmchconfig usePersistentReserve=sim
• mmchmgr -c
Alterar atributos do nó D
• mmchnode
• mmrestripes -R
Depurando GPFS
Tarefas de depuração
Tarefas de depuração
adm/ras/mmfs.log.previous
• /var/adm/ras/mmfs.log.<timestamp>
• Leia a documentação!
• Dicas aleatórias:
• Se o nó foi clonado de outro nó GPFS, exclua o conteúdo de /var/mmfs/gen e /etc/
cluster.nodes antes de adicionar ao cluster GPFS
Fontes de informação
• Perguntas frequentes sobre a versão do GPFS (muito importante para as atualizações mais recentes):
... /index.jsp?topic=/com.ibm.cluster.gpfs.doc/gpfs_faqs/gpfsclustersfaq.html
• http://lists.sdsc.edu/mailman/listinfo.cgi/gpfs-general
• Wiki do GPFS
• http://www.ibm.com/developerworks/wikis/display/hpccentral/General+Parallel+File+System+
%28GPFS%29
Fontes de informação
digital (SG24-6700)
• Correção do site de
download: http://www14.software.ibm.com/webapp/set2/sas/f/gpfs/home.html