S3cmd - Linux
As ferramentas client padrão podem ser usadas para armazenar objetos no Big File Object Storage. Este manual ajudará a configurar ferramentas compatíveis com S3 para funcionarem no Big File.
O S3cmd é uma ferramenta de linha de comando para carregar, recuperar e gerenciar dados em provedores de serviços de armazenamento em nuvem que usam o protocolo S3, como o BigFile. É ideal para scripts, backups automatizados acionados do cron e assim por diante.
Índice
Pré-requisitos
Antes de começar, valide os seguintes processos:
Info
Antes de começar é necessário que você tenha acesso aos parâmetros de uso da API.
Esse manual mostra como acessá-los: API Big File
Etapa 1: Instalando S3cmd
Faça o download da versão mais recente do s3cmd no GitHub.
curl -O -L https://github.com/s3tools/s3cmd/releases/download/v2.1.0/s3cmd-2.1.0.tar.gz
Descompacte o arquivo.
tar xzf s3cmd-2.1.0.tar.gz
Agora você deve ter um diretório chamado s3cmd-2.1.0 . Mude para esse diretório.
cd s3cmd-2.1.0
Copie o executável s3cmd e a pasta S3 para o diretório bin.
cp -R s3cmd S3 ~/bin
Adicione o diretório bin ao seu .bash_profile para poder executar o script recém-instalado.
export PATH=$HOME/bin:$PATH
Execute seu perfil do bash para que ele entre em vigor.
. ~/.bash_profile
Etapa 2: Configurando o S3cmd
Crie um arquivo em seu diretório pessoal chamado .s3cfg.
cd ~ vim .s3cfg
Segue exemplo.
[default] access_key = <Your_Access_Key> secret_key = <Your_Secret_Key> host_base = bigfile.brascloud.com.br host_bucket = bigfile.brascloud.com.br enable_multipart = True multipart_chunk_size_mb = 15 use_https = True
- Inclua suas chaves no painel de controle do BigFile.
- Veja o link a seguir para obter uma lista completa de opções que você pode usar no seu arquivo de configuração.
Etapa 3: Validando configuração o S3cmd
Execute o seguinte comando.
s3cmd --configure
Valide se os valores estão corretos.
Access key and Secret key are your identifiers for Amazon S3. Leave them empty for using the env variables. Access Key [sua_chave]: Secret Key [sua_chave_secreta]: Default Region [US]: BR Use "s3.amazonaws.com" for S3 Endpoint and not modify it to the target Amazon S3. S3 Endpoint [bigfile.brascloud.com.br]: Use "%(bucket)s.s3.amazonaws.com" to the target Amazon S3. "%(bucket)s" and "%(location)s" vars can be used if the target S3 system supports dns based buckets. DNS-style bucket+hostname:port template for accessing a bucket [bigfile.brascloud.com.br]: Encryption password is used to protect your files from reading by unauthorized persons while in transfer to S3 Encryption password: Path to GPG program [/usr/bin/gpg]: When using secure HTTPS protocol all communication with Amazon S3 servers is protected from 3rd party eavesdropping. This method is slower than plain HTTP, and can only be proxied with Python 2.7 or newer Use HTTPS protocol [Yes]: yes On some networks all internet access must go through a HTTP proxy. Try setting it here if you can't connect to S3 directly HTTP Proxy server name:
Ficará da seguinte maneira.
New settings: Access Key: sua_chave Secret Key: sua_chave_secreta Default Region: BR S3 Endpoint: bigfile02.brascloud.com.br DNS-style bucket+hostname:port template for accessing a bucket: bigfile02.brascloud.com.br Encryption password: Path to GPG program: /usr/bin/gpg Use HTTPS protocol: True HTTP Proxy server name: HTTP Proxy server port: 0 Test access with supplied credentials? [Y/n] y
Teste a conexão com.
s3cmd ls
- Deve ser listado todos os buckets do seu BigFile.
Etapa 4: Outros
Agora é possível executar inúmeras operações de arquivos como sincronismos de pastas, e backups utilizando as funções do S3cmd, veja essas funções no link a seguir.
Próximos passos: