quinquilharia / README.md
tallesl's picture
12e288a
metadata
task_categories:
  - text-generation
language:
  - pt
license: unlicense
pretty_name: Quinquilharia

Quinquilharia

Textos variados em português do Brasil.

Fóruns

Tema Link do fórum Dataset com scrap realizado
Agility (esporte) agilityrj.forumeiros.com agilityrj.csv (~13 mil linhas)
Artesanato atelierdasartes.forumeiros.com atelierdasartes.csv (~33 mil linhas)
Aúdio e vídeo audiopt.forumeiros.com audiopt.csv (~17 mil linhas)
Computadores under-linux.org under-linux.csv (~29 mil linhas)
Dança bboypt.forumeiros.com bboypt.csv (~11 mil linhas)
Desenhos animados forumnsanimes.com forumnsanimes.csv (~11 mil linhas)
Desenhos animados naruto.forumeiros.com naruto.csv (~96 mil linhas)
Desenhos animados naruto-portugal.forumeiro.com naruto-portugal.csv (~65 mil linhas)
Desenvolvimento web opencartbrasil.com.br opencartbrasil.csv (~53 mil linhas)
Desenvolvimento web scriptcase.com.br scriptcase.csv (~214 mil linhas)
Eletrônicos intelbras.com.br intelbras.csv (~56 mil linhas)
Eletrônicos gpsinfo.com.br gpsinfo.csv (~41 mil linhas)
Eletrônicos htforum.net htforum.csv (~99 mil linhas)
Espiritualidade e religião extestemunhasdejeova.net extestemunhasdejeova.csv (~189 mil linhas)
Filmes e séries forumchaves.com.br forumchaves.csv (~132 mil linhas)
Filmes e séries valinor.com.br valinor.csv (~377 mil linhas)
Fotografia aveirofotoclube.forumeiros.com aveirofotoclube.csv (~16 mil linhas)
Jardinagem arte108.forumeiros.com arte108.csv (~22 mil linhas)
Jogos de carta e tabuleiro battlescenes.forumeiros.com battlescenes.csv (~10 mil linhas)
Modelismo autochampion.forumeiros.com autochampion.csv (~26 mil linhas)
Modelismo plastibrasil.com plastibrasil.csv (~256 mil linhas)
Variedades nosmulheres.forumeiros.com nosmulheres.csv (~43 mil linhas)
Veículos fusca4ever.com.br fusca4ever.csv (~38 mil linhas)
Veículos moto125cc.forumotion.com moto125cc.csv (~77 mil linhas)
Veículos pequenasnotaveis.net pequenasnotaveis.csv (~19 mil linhas)
Video-games tibiabr.com tibiabr.csv (~90 mil linhas)

O conteúdo obtido de páginas da web foi acessado com ajuda do comando wget, que suporta varrer um website obtendo suas páginas (crawling). Cada website requereu diferentes argumentos dentre os listados abaixo:

Parâmetro Descrição
--adjust-extension Garante que ".html" seja adicionado aos arquivos.
--convert-links Converte links para links locais (útil para visualização offline).
--directory-prefix=/my/directory Define o diretório de destino.
--include-directories=posts Lista separada por vírgulas dos diretórios permitidos a serem seguidos no rastreamento.
--level=inf Define o nível de recursão como infinito.
--no-check-certificate Ignora a verificação de certificado SSL.
--no-clobber Evita o download de arquivos que já existem localmente.
--no-remove-listing Mantém os arquivos ".listing" criados para registrar o conteúdo dos diretórios.
--page-requisites Faz download de imagens embutidas, sons e folhas de estilo referenciadas.
--random-wait Multiplica o --wait aleatoriamente entre 0,5 e 1,5 para cada requisição.
--recursive Habilita o download recursivo (segue links).
--reject "*\?*" Rejeita URLs que contenham strings de consulta.
--span-hosts Permite download de arquivos de links que apontam para diferentes hosts.
--user-agent Envia o cabeçalho "User-Agent" especificado para o servidor.
--wait=6 Aguarda o número especificado de segundos entre cada requisição.
-domains Lista separada por vírgulas dos domínios a serem seguidos.
-e robots=off Ignora instruções do arquivo robots.txt.

Todo o crawling foi realizado utilizado um thin client de baixo consumo de energia e, atráves do parâmetro --wait, houve um cuidado para não sobrecarregar os servidores sendo acessados.