S3cmd - Linux

As ferramentas client padrão podem ser usadas para armazenar objetos no Big File Object Storage. Este manual ajudará a configurar ferramentas compatíveis com S3 para funcionarem no Big File. 

O S3cmd é uma ferramenta de linha de comando para carregar, recuperar e gerenciar dados em provedores de serviços de armazenamento em nuvem que usam o protocolo S3, como o BigFile. É ideal para scripts, backups automatizados acionados do cron e assim por diante. 

Índice

Pré-requisitos


Antes de começar, valide os seguintes processos:


Info

Antes de começar é necessário que você tenha acesso aos parâmetros de uso da API.

Esse manual mostra como acessá-los: API Big File

Etapa 1: Instalando S3cmd


  1. Faça o download da versão mais recente do s3cmd no GitHub.

    curl -O -L https://github.com/s3tools/s3cmd/releases/download/v2.1.0/s3cmd-2.1.0.tar.gz
  2. Descompacte o arquivo.

    tar xzf s3cmd-2.1.0.tar.gz
  3. Agora você deve ter um diretório chamado s3cmd-2.1.0 . Mude para esse diretório.

    cd s3cmd-2.1.0
  4. Copie o executável s3cmd e a pasta S3 para o diretório bin.

    cp -R s3cmd S3 ~/bin
  5. Adicione o diretório bin ao seu .bash_profile para poder executar o script recém-instalado.

    export PATH=$HOME/bin:$PATH
  6. Execute seu perfil do bash para que ele entre em vigor.

    . ~/.bash_profile

Etapa 2: Configurando o S3cmd


  1. Crie um arquivo em seu diretório pessoal chamado .s3cfg.

    cd ~ 
    vim .s3cfg
  2. Segue exemplo.

    [default]
    access_key = <Your_Access_Key>
    secret_key = <Your_Secret_Key>
    host_base = bigfile.brascloud.com.br
    host_bucket = bigfile.brascloud.com.br
    enable_multipart = True
    multipart_chunk_size_mb = 15
    use_https = True
  3. Inclua suas chaves no painel de controle do BigFile.
  4. Veja o link a seguir para obter uma lista completa de opções que você pode usar no seu arquivo de configuração.


Etapa 3: Validando configuração o S3cmd


  1. Execute o seguinte comando.

    s3cmd --configure
  2. Valide se os valores estão corretos.

    Access key and Secret key are your identifiers for Amazon S3. Leave them empty for using the env variables.
    Access Key [sua_chave]: 
    Secret Key [sua_chave_secreta]: 
    Default Region [US]: BR
    
    Use "s3.amazonaws.com" for S3 Endpoint and not modify it to the target Amazon S3.
    S3 Endpoint [bigfile.brascloud.com.br]: 
    
    Use "%(bucket)s.s3.amazonaws.com" to the target Amazon S3. "%(bucket)s" and "%(location)s" vars can be used
    if the target S3 system supports dns based buckets.
    DNS-style bucket+hostname:port template for accessing a bucket [bigfile.brascloud.com.br]: 
    
    Encryption password is used to protect your files from reading
    by unauthorized persons while in transfer to S3
    Encryption password: 
    Path to GPG program [/usr/bin/gpg]: 
    
    When using secure HTTPS protocol all communication with Amazon S3
    servers is protected from 3rd party eavesdropping. This method is
    slower than plain HTTP, and can only be proxied with Python 2.7 or newer
    Use HTTPS protocol [Yes]: yes
    
    On some networks all internet access must go through a HTTP proxy.
    Try setting it here if you can't connect to S3 directly
    HTTP Proxy server name: 
  3. Ficará da seguinte maneira.

    New settings:
      Access Key: sua_chave
      Secret Key: sua_chave_secreta
      Default Region: BR
      S3 Endpoint: bigfile02.brascloud.com.br
      DNS-style bucket+hostname:port template for accessing a bucket: bigfile02.brascloud.com.br
      Encryption password: 
      Path to GPG program: /usr/bin/gpg
      Use HTTPS protocol: True
      HTTP Proxy server name: 
      HTTP Proxy server port: 0
    
    Test access with supplied credentials? [Y/n] y
  4. Teste a conexão com.

    s3cmd ls
  5. Deve ser listado todos os buckets do seu BigFile.


Etapa 4: Outros


Agora é possível executar inúmeras operações de arquivos como sincronismos de pastas, e backups utilizando as funções do S3cmd, veja essas funções no link a seguir.

Próximos passos: