Recuperando arquivos apagados

Uma hora ou outra, todos perderão alguns arquivos, corrompidos pelo sistema de arquivos, ou simplesmente deletado sem intenção. Na linha de comando é necessário ter cuidados maiores com espaços em branco. Meu problema não foi muito grave, na verdade até fiquei bem tranquilo, porém como sempre, ainda queria saber quais arquivos foram apagados para que pudesse recuperá-los. Contarei a história do que foi possível fazer neste caso.

A primeira coisa, para evitar mais perdas, aumentando as chances de recuperação, é desmontar a unidade, ou colocá-la em somente leitura, o que poderia ser feito com um umount ou mont -o remount,ro. No meu caso como era no próprio /, desliguei o computador e usei um sistema num pendrive. Isso é importante, como serão alterados alguns dados do sistema de arquivos, evita mais percas ou o corrompimento total do sistema de arquivos.

Uma ferramenta fácil e simples para recuperar os arquivos é o extundelete (pacote extundelete no Debian). Para usá-la basta executar extundelete, caminho do sistema de arquivos e uma opção de recuperação, como --restore-file caminho_do_araquivo, --restore-directory caminho_do_diretorio, ou até mesmo um --restore-all para recupera todos os arquivos. Lembrando que todos esses caminhos são relativos a raiz do sistema de arquivos, se o arquivo for o “/home/user/arquivo.txt”, sendo “/home” o ponto de montagem da partição “/dev/sdb1” seria extundelete /dev/sdb1 user/arquivo.txt.

Na maioria dos casos essa ferramenta atende, porém se quiser ir mais a fundo para buscar algum pedaço de informação que não pode ser recuperado ainda existe o debugfs. No caso executei um debugfs /dev/sdb1, executei o cd até chegar no diretório desejado e usei os comandos lsdel e ls -d para listar os arquivos. Com o ls -d consegui o número do inode aonde está o arquivo, na posse desta informação é possível utilizar várias outras técnicas, ou simplesmente a lista de arquivos que estava ali e foram apagados, mesmo que não tenha sido possível recuperá-lo anteriormente com o extundelete.

Anúncios

Remover arquivos duplicados

Há algum tempo, escrevi sobre o método que utilizo para fazer backup do meu hd externo. Porém quando comecei a utilizá-lo, tinha pouco mais de 500 GB de arquivos e muitos backups antigos, diretórios que quando iria formatava o computador, simplesmente olhava que faltava fazer backup de um diretório apenas, copiava-o inteiro, recuperar os arquivos mais importantes ou utilizados, enquanto os demais ficavam perdidos e ocupando espaço, mesmo já vindo de outro backup.

A questão é que eu tinha, pelo menos, uns seis backups, envolvendo formatação e cópias de pendrivers. Muitos desses arquivos estavam repetidos, significando que eu poderia deixar apenas uma cópia, apagando as demais e mesmo assim ter todos os meus arquivos.

O primeiro método que pensei foi gerar hash de todos os arquivos, e depois compará-los para encontrar duplicados, porém gerar hash de 500 GB é extremamente demorado e muitos desses arquivos não sobrem alterações, então não seria necessário recalcular toda execução. Olhando no sistema de arquivos, temos a informação de última alteração no arquivo, então bastava gerar um cache com informações de arquivo, hash e data da última alteração, toda vez que o for executado, poderia comparar primeiro a data de alteração e calcular o hash apenas se necessário.

Com o script pronto, a primeira execução foi demorada, uma vez que teria que calcular o hash dos 500 GB, levando algumas horas, encontrando 5 GB de arquivos que poderiam ser apagados sem que eu perdesse qualquer informação. Uma próxima execução foi muito mais rápida, não levando mais de dois minutos, desde que com modificações em arquivos pequenos.

Consegui logo apagar uns 2 ou 3 GB, porém a lista de arquivos duplicados, apesar de auxiliar no processo, não era algo muito prática, uma vez que teria que buscar o arquivo manualmente para apagá-lo. Com arquivos grandes o processo ia rápido, e liberava mais espaço, porém em arquivos de texto puro não dava um rendimento satisfatório. Como sou programador web, logo montei uma página para listar esses arquivos, com um checkbox para selecionar os arquivos que desejava apagar, deixando o processo todo muito mais prático. Hoje tenho menos de 5 MB de pequenos arquivos duplicados, que comparados aos 5 GB representa menos de 0,1%.

Reorganizei todo o código, aproveitando para montar uma interface web mais completa, e publiquei o código no github sobre licença MIT (https://github.com/eduardoklosowski/deduplicated), então quem quiser dar uma olhada, utilizar, ou até contribuir com o desenvolvimento do mesmo fique à vontade.

Uma explicação rápida para quem deseja utilizá-lo. Por ser escrito em Python, recomendo a instalação via pip com o comando pip install git+https://github.com/eduardoklosowski/deduplicated.git ou pip install git+https://github.com/eduardoklosowski/deduplicated.git#egg=deduplicated[web] caso deseje instalar as dependências da interface web. Com isto você terá o comando deduplicated, bastando utilizar os parâmetros update para atualizar o cache dos arquivos, duplicated para listar os arquivos duplicados ou check para atualizar o cache e exibir os arquivos duplicados, seguido de um ou mais diretórios que deseja verificar, exemplo deduplicated check /home/eduardo. Caso tenha instalado a interface web, basta executar o comando deduplicated-web e abrir o endereço http://127.0.0.1:5050/.

Também existe uma opção para verificar se um arquivo está no cache com o comando indir, exemplo deduplicated indir meuarquivo.txt /home/eduardo. A vantagem é que você não precisa ter os arquivos para fazer essa verificação, eu verificava se os arquivos do meu notebook estavam no hd externo desta forma, sem precisar estar com ele ligado.

Recentemente tive um problema com o meu hd externo, essa história está no hack ‘n’ cast (quando for publicado disponibilizo o link aqui). Como eu tinha o cache do meu hd externo, pude compará-lo com o meu backup, descobrindo o que não estava atualizado e se eu tinha perdido algo. Esse procedimento se resumiu a executar as funções de atualização do cache na manualmente para adaptar certas partes e listar determinados valores. Caso alguém deseje posso até montar o script como uma função extra.

Eu fiquei extremamente feliz ao conseguir economizar o espaço do meu hd externo, o que já valeu o programa. Quando tive problemas no hd externo, percebi que ter as coisas organizadas e automatizadas, podendo consultar alguns logs, torna tudo mais fácil e tranquilo, bastando efetuar o RMA e depois executar um rsync para resolver todo o problema, obviamente teve a parte de formatação e criptografia também.

Backup HD Externo

Hoje vou compartilhar como faço meu backup com vocês. Comprei um HD externo a algum tempo e todos meus dados que quero guardar, gravo no mesmo, porém se ocorresse alguma falha, perderia todas as minhas informações, então precisava de uma cópia de segurança. Como ainda tenho o meu primeiro computador, o qual não utilizo mais, porém ainda funciona perfeitamente, além de um HD razoável, decidi utilizar o mesmo como backup. Agora o desafio foi como fazer e manter uma cópia atualiza dos arquivos, uma vez que o computador de backup não está ligado todo o tempo, não depender de procedimentos manuais ou fazer a cópia integral dos arquivos toda vez que demoraria muito.

A solução foi extremamente simples, no GNU/Linux temos um programa chamado “rsync”, que é uma ferramenta para fazer cópia de arquivos, a parte interessante é justamente por fazer todo esse controle que eu preciso, a primeira vez que sincronizar, todos os dados serão copiados, nas próximas, apenas as diferenças (arquivos alterados, adicionados e excluídos) serão transmitidas. Outra vantagem é que ele funciona via rede, então posso utilizar o meu HD externo no meu notebook e utilizar o SSH para fazer o sincronismo.

Na prática o funcionamento foi assim, com os HDs devidamente funcionando e acessíveis pelo sistema operacional, rsync instalado no notebook e computador (apt-get install rsync no Debian ou Ubuntu), copiei para o HD externo meus arquivos e executei rsync -av --progress --delete --exclude lost+found /media/HDEXTERNO user@192.168.0.100:/media/HDVELHO/(reparem na barra no final do diretório de destino, ela é importante). Com esse comando mando o meu notebook fazer uma cópia de todo o conteúdo do HD externo (/media/HDEXTERNO) para o diretório /media/HDVELHO/HDEXTERNO no meu computador via SSH (usuário user no IP 192.168.0.100), deixando de fora o diretório “lost+found” que é do Ext4 e não desejo incluir no backup. Depois de fazer alterações no HD externo, posso executar esse mesmo comando novamente que será feito o sincronismo dos arquivos, sem mistérios. Porém vale lembrar que mudanças feitas no HD do computador serão sobrescritas, então utilizo o mesmo para visualizar arquivos, existem opções do rsync para copiar apenas arquivos que forem mais novos na origem e ignorar arquivos mais novos no destino, porém para o meu caso não foi necessário.

Para quem prefere uma interface gráfica, existe o Grsync. Extremamente simples de instalar (apt-get install grsync no Debian e Ubuntu). A princípio pode ser um pouco assustador a quantidade de opções, porém é só olhar com calma e escolher o que desejar ou utilizar a padrão mesmo. Depois de configurar as opções é possível salvar a configuração para reutilizá-la depois. Quando for executar será chamado o rsync em brackground, a sincronização ocorrerá como na linha de comando.

Hoje utilizo o Grsync para fazer backup de alguns diretórios para o HD externo e o rsync na linha de comando (através de um alias do Bash) para fazer o backup do HD para o computador. Se algum dia tiver problemas com o HD no computador, simplesmente substituo-o e executo o rsync, se tiver problema com o HD externo, compro outro, executo o rsync com os diretórios invertidos para copiar tudo para o HD externo e volto a utilizá-lo normalmente.

Também o possível utilizar esse mesmo esquema invertendo o diretório de gravação, você pode gravar seus arquivos em algum diretório e fazer o backup no HD externo, acredito que seria um caso até mais comum, porém preferi deixar esse espaço livre no notebook, já que tinha o computador disponível.