Datasets:
metadata
task_categories:
- text-generation
language:
- pt
license: unlicense
pretty_name: Quinquilharia
Quinquilharia
Textos variados em português do Brasil.
Fóruns
O conteúdo obtido de páginas da web foi acessado com ajuda do comando wget
, que suporta varrer um website obtendo suas páginas (crawling). Cada website requereu diferentes argumentos dentre os listados abaixo:
Parâmetro | Descrição |
---|---|
--adjust-extension |
Garante que ".html" seja adicionado aos arquivos. |
--convert-links |
Converte links para links locais (útil para visualização offline). |
--directory-prefix=/my/directory |
Define o diretório de destino. |
--include-directories=posts |
Lista separada por vírgulas dos diretórios permitidos a serem seguidos no rastreamento. |
--level=inf |
Define o nível de recursão como infinito. |
--no-check-certificate |
Ignora a verificação de certificado SSL. |
--no-clobber |
Evita o download de arquivos que já existem localmente. |
--no-remove-listing |
Mantém os arquivos ".listing" criados para registrar o conteúdo dos diretórios. |
--page-requisites |
Faz download de imagens embutidas, sons e folhas de estilo referenciadas. |
--random-wait |
Multiplica o --wait aleatoriamente entre 0,5 e 1,5 para cada requisição. |
--recursive |
Habilita o download recursivo (segue links). |
--reject "*\?*" |
Rejeita URLs que contenham strings de consulta. |
--span-hosts |
Permite download de arquivos de links que apontam para diferentes hosts. |
--user-agent |
Envia o cabeçalho "User-Agent" especificado para o servidor. |
--wait=6 |
Aguarda o número especificado de segundos entre cada requisição. |
-domains |
Lista separada por vírgulas dos domínios a serem seguidos. |
-e robots=off |
Ignora instruções do arquivo robots.txt . |
Todo o crawling foi realizado utilizado um thin client de baixo consumo de energia e, atráves do parâmetro --wait
, houve um cuidado para não sobrecarregar os servidores sendo acessados.