tallesl commited on
Commit
a7397bc
1 Parent(s): 503c9a8
Files changed (1) hide show
  1. README.md +63 -62
README.md CHANGED
@@ -13,32 +13,6 @@ pretty_name: Quinquilharia
13
 
14
  Textos variados em português do Brasil.
15
 
16
- ## Crawling com wget
17
-
18
- O conteúdo obtido de páginas da web foi acessado com ajuda do comando `wget`, que suporta varrer um website obtendo suas páginas (crawling). Cada website requereu diferentes argumentos dentre os listados abaixo:
19
-
20
- Parâmetro | Descrição
21
- --------- | ---------
22
- `--adjust-extension` | Garante que ".html" seja adicionado aos arquivos.
23
- `--convert-links` | Converte links para links locais (útil para visualização offline).
24
- `--directory-prefix=/my/directory` | Define o diretório de destino.
25
- `--include-directories=posts` | Lista separada por vírgulas dos diretórios permitidos a serem seguidos no rastreamento.
26
- `--level=inf` | Define o nível de recursão como infinito.
27
- `--no-check-certificate` | Ignora a verificação de certificado SSL.
28
- `--no-clobber` | Evita o download de arquivos que já existem localmente.
29
- `--no-remove-listing` | Mantém os arquivos ".listing" criados para registrar o conteúdo dos diretórios.
30
- `--page-requisites` | Faz download de imagens embutidas, sons e folhas de estilo referenciadas.
31
- `--random-wait` | Multiplica o `--wait` aleatoriamente entre 0,5 e 1,5 para cada requisição.
32
- `--recursive` | Habilita o download recursivo (segue links).
33
- `--reject "*\?*"` | Rejeita URLs que contenham strings de consulta.
34
- `--span-hosts` | Permite download de arquivos de links que apontam para diferentes hosts.
35
- `--user-agent` | Envia o cabeçalho "User-Agent" especificado para o servidor.
36
- `--wait=6` | Aguarda o número especificado de segundos entre cada requisição.
37
- `-domains` | Lista separada por vírgulas dos domínios a serem seguidos.
38
- `-e robots=off` | Ignora instruções do arquivo `robots.txt`.
39
-
40
- Todo o crawling foi realizado utilizado um thin client de baixo consumo de energia e, atráves do parâmetro `--wait`, **houve um cuidado para não sobrecarregar os servidores sendo acessados**.
41
-
42
  ## Fóruns
43
 
44
  Tema | Link do fórum | Dataset com scrap realizado
@@ -148,39 +122,66 @@ Variedades | [ascoresdasbeiras.forumeiros.com][ascoresdasbeiras]
148
  [bsfanfics]: https://bsfanfics.forumeiros.com
149
  [bttdavinha]: https://bttdavinha.forumeiros.com
150
 
151
- [100teto-csv]: forumeiros/100teto.csv
152
- [1130-csv]: forumeiros/1130.csv
153
- [1piecebr-csv]: forumeiros/1piecebr.csv
154
- [5meianoite-csv]: forumeiros/5meianoite.csv
155
- [a3cn-csv]: forumeiros/a3cn.csv
156
- [accampanha-csv]: forumeiros/accampanha.csv
157
- [aeroaguia-csv]: forumeiros/aeroaguia.csv
158
- [agilitybr-csv]: forumeiros/agilitybr.csv
159
- [agilityrj-csv]: forumeiros/agilityrj.csv
160
- [alphamaker-csv]: forumeiros/alphamaker.csv
161
- [alyssamilano-csv]: forumeiros/alyssamilano.csv
162
- [amam-csv]: forumeiros/amam.csv
163
- [animalistic-csv]: forumeiros/animalistic.csv
164
- [aquaticosssa-csv]: forumeiros/aquaticosssa.csv
165
- [arjuventudemuro-csv]: forumeiros/arjuventudemuro.csv
166
- [armazemcriativo-csv]: forumeiros/armazemcriativo.csv
167
- [arsenalmodelismo-csv]: forumeiros/arsenalmodelismo.csv
168
- [arte108-csv]: forumeiros/arte108.csv
169
- [artedeconfeitar-csv]: forumeiros/artedeconfeitar.csv
170
- [artesanatonarede-csv]: forumeiros/artesanatonarede.csv
171
- [artesetralhas-csv]: forumeiros/artesetralhas.csv
172
- [ascoresdasbeiras-csv]: forumeiros/ascoresdasbeiras.csv
173
- [astrath-csv]: forumeiros/astrath.csv
174
- [atelierdasartes-csv]: forumeiros/atelierdasartes.csv
175
- [audiobrasil]: forumeiros/audiobrasil.csv
176
- [autochampion-csv]: forumeiros/autochampion.csv
177
- [aveirofotoclube-csv]: forumeiros/aveirofotoclube.csv
178
- [aves-csv]: forumeiros/aves.csv
179
- [battlescenes-csv]: forumeiros/battlescenes.csv
180
- [bboypt-csv]: forumeiros/bboypt.csv
181
- [beneficiencia-csv]: forumeiros/beneficiencia.csv
182
- [bondedastronda-csv]: forumeiros/bondedastronda.csv
183
- [bookess-csv]: forumeiros/bookess.csv
184
- [brasilminis-csv]: forumeiros/brasilminis.csv
185
- [bsfanfics-csv]: forumeiros/bsfanfics.csv
186
- [bttdavinha-csv]: forumeiros/bttdavinha.csv
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13
 
14
  Textos variados em português do Brasil.
15
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
16
  ## Fóruns
17
 
18
  Tema | Link do fórum | Dataset com scrap realizado
 
122
  [bsfanfics]: https://bsfanfics.forumeiros.com
123
  [bttdavinha]: https://bttdavinha.forumeiros.com
124
 
125
+ [100teto-csv]: forumeiros/100teto.csv
126
+ [1130-csv]: forumeiros/1130.csv
127
+ [1piecebr-csv]: forumeiros/1piecebr.csv
128
+ [5meianoite-csv]: forumeiros/5meianoite.csv
129
+ [a3cn-csv]: forumeiros/a3cn.csv
130
+ [accampanha-csv]: forumeiros/accampanha.csv
131
+ [aeroaguia-csv]: forumeiros/aeroaguia.csv
132
+ [agilitybr-csv]: forumeiros/agilitybr.csv
133
+ [agilityrj-csv]: forumeiros/agilityrj.csv
134
+ [alphamaker-csv]: forumeiros/alphamaker.csv
135
+ [alyssamilano-csv]: forumeiros/alyssamilano.csv
136
+ [amam-csv]: forumeiros/amam.csv
137
+ [animalistic-csv]: forumeiros/animalistic.csv
138
+ [aquaticosssa-csv]: forumeiros/aquaticosssa.csv
139
+ [arjuventudemuro-csv]: forumeiros/arjuventudemuro.csv
140
+ [armazemcriativo-csv]: forumeiros/armazemcriativo.csv
141
+ [arsenalmodelismo-csv]: forumeiros/arsenalmodelismo.csv
142
+ [arte108-csv]: forumeiros/arte108.csv
143
+ [artedeconfeitar-csv]: forumeiros/artedeconfeitar.csv
144
+ [artesanatonarede-csv]: forumeiros/artesanatonarede.csv
145
+ [artesetralhas-csv]: forumeiros/artesetralhas.csv
146
+ [ascoresdasbeiras-csv]: forumeiros/ascoresdasbeiras.csv
147
+ [astrath-csv]: forumeiros/astrath.csv
148
+ [atelierdasartes-csv]: forumeiros/atelierdasartes.csv
149
+ [audiobrasil-csv]: forumeiros/audiobrasil.csv
150
+ [autochampion-csv]: forumeiros/autochampion.csv
151
+ [aveirofotoclube-csv]: forumeiros/aveirofotoclube.csv
152
+ [aves-csv]: forumeiros/aves.csv
153
+ [battlescenes-csv]: forumeiros/battlescenes.csv
154
+ [bboypt-csv]: forumeiros/bboypt.csv
155
+ [beneficiencia-csv]: forumeiros/beneficiencia.csv
156
+ [bondedastronda-csv]: forumeiros/bondedastronda.csv
157
+ [bookess-csv]: forumeiros/bookess.csv
158
+ [brasilminis-csv]: forumeiros/brasilminis.csv
159
+ [bsfanfics-csv]: forumeiros/bsfanfics.csv
160
+ [bttdavinha-csv]: forumeiros/bttdavinha.csv
161
+ [buraconegrospirit-csv]: forumeiros/buraconegrospirit.csv
162
+
163
+ ## Crawling com wget
164
+
165
+ O conteúdo obtido de páginas da web foi acessado com ajuda do comando `wget`, que suporta varrer um website obtendo suas páginas (crawling). Cada website requereu diferentes argumentos dentre os listados abaixo:
166
+
167
+ Parâmetro | Descrição
168
+ --------- | ---------
169
+ `--adjust-extension` | Garante que ".html" seja adicionado aos arquivos.
170
+ `--convert-links` | Converte links para links locais (útil para visualização offline).
171
+ `--directory-prefix=/my/directory` | Define o diretório de destino.
172
+ `--include-directories=posts` | Lista separada por vírgulas dos diretórios permitidos a serem seguidos no rastreamento.
173
+ `--level=inf` | Define o nível de recursão como infinito.
174
+ `--no-check-certificate` | Ignora a verificação de certificado SSL.
175
+ `--no-clobber` | Evita o download de arquivos que já existem localmente.
176
+ `--no-remove-listing` | Mantém os arquivos ".listing" criados para registrar o conteúdo dos diretórios.
177
+ `--page-requisites` | Faz download de imagens embutidas, sons e folhas de estilo referenciadas.
178
+ `--random-wait` | Multiplica o `--wait` aleatoriamente entre 0,5 e 1,5 para cada requisição.
179
+ `--recursive` | Habilita o download recursivo (segue links).
180
+ `--reject "*\?*"` | Rejeita URLs que contenham strings de consulta.
181
+ `--span-hosts` | Permite download de arquivos de links que apontam para diferentes hosts.
182
+ `--user-agent` | Envia o cabeçalho "User-Agent" especificado para o servidor.
183
+ `--wait=6` | Aguarda o número especificado de segundos entre cada requisição.
184
+ `-domains` | Lista separada por vírgulas dos domínios a serem seguidos.
185
+ `-e robots=off` | Ignora instruções do arquivo `robots.txt`.
186
+
187
+ Todo o crawling foi realizado utilizado um thin client de baixo consumo de energia e, atráves do parâmetro `--wait`, **houve um cuidado para não sobrecarregar os servidores sendo acessados**.