Datasets:
README.md
CHANGED
@@ -13,32 +13,6 @@ pretty_name: Quinquilharia
|
|
13 |
|
14 |
Textos variados em português do Brasil.
|
15 |
|
16 |
-
## Crawling com wget
|
17 |
-
|
18 |
-
O conteúdo obtido de páginas da web foi acessado com ajuda do comando `wget`, que suporta varrer um website obtendo suas páginas (crawling). Cada website requereu diferentes argumentos dentre os listados abaixo:
|
19 |
-
|
20 |
-
Parâmetro | Descrição
|
21 |
-
--------- | ---------
|
22 |
-
`--adjust-extension` | Garante que ".html" seja adicionado aos arquivos.
|
23 |
-
`--convert-links` | Converte links para links locais (útil para visualização offline).
|
24 |
-
`--directory-prefix=/my/directory` | Define o diretório de destino.
|
25 |
-
`--include-directories=posts` | Lista separada por vírgulas dos diretórios permitidos a serem seguidos no rastreamento.
|
26 |
-
`--level=inf` | Define o nível de recursão como infinito.
|
27 |
-
`--no-check-certificate` | Ignora a verificação de certificado SSL.
|
28 |
-
`--no-clobber` | Evita o download de arquivos que já existem localmente.
|
29 |
-
`--no-remove-listing` | Mantém os arquivos ".listing" criados para registrar o conteúdo dos diretórios.
|
30 |
-
`--page-requisites` | Faz download de imagens embutidas, sons e folhas de estilo referenciadas.
|
31 |
-
`--random-wait` | Multiplica o `--wait` aleatoriamente entre 0,5 e 1,5 para cada requisição.
|
32 |
-
`--recursive` | Habilita o download recursivo (segue links).
|
33 |
-
`--reject "*\?*"` | Rejeita URLs que contenham strings de consulta.
|
34 |
-
`--span-hosts` | Permite download de arquivos de links que apontam para diferentes hosts.
|
35 |
-
`--user-agent` | Envia o cabeçalho "User-Agent" especificado para o servidor.
|
36 |
-
`--wait=6` | Aguarda o número especificado de segundos entre cada requisição.
|
37 |
-
`-domains` | Lista separada por vírgulas dos domínios a serem seguidos.
|
38 |
-
`-e robots=off` | Ignora instruções do arquivo `robots.txt`.
|
39 |
-
|
40 |
-
Todo o crawling foi realizado utilizado um thin client de baixo consumo de energia e, atráves do parâmetro `--wait`, **houve um cuidado para não sobrecarregar os servidores sendo acessados**.
|
41 |
-
|
42 |
## Fóruns
|
43 |
|
44 |
Tema | Link do fórum | Dataset com scrap realizado
|
@@ -148,39 +122,66 @@ Variedades | [ascoresdasbeiras.forumeiros.com][ascoresdasbeiras]
|
|
148 |
[bsfanfics]: https://bsfanfics.forumeiros.com
|
149 |
[bttdavinha]: https://bttdavinha.forumeiros.com
|
150 |
|
151 |
-
[100teto-csv]:
|
152 |
-
[1130-csv]:
|
153 |
-
[1piecebr-csv]:
|
154 |
-
[5meianoite-csv]:
|
155 |
-
[a3cn-csv]:
|
156 |
-
[accampanha-csv]:
|
157 |
-
[aeroaguia-csv]:
|
158 |
-
[agilitybr-csv]:
|
159 |
-
[agilityrj-csv]:
|
160 |
-
[alphamaker-csv]:
|
161 |
-
[alyssamilano-csv]:
|
162 |
-
[amam-csv]:
|
163 |
-
[animalistic-csv]:
|
164 |
-
[aquaticosssa-csv]:
|
165 |
-
[arjuventudemuro-csv]:
|
166 |
-
[armazemcriativo-csv]:
|
167 |
-
[arsenalmodelismo-csv]:
|
168 |
-
[arte108-csv]:
|
169 |
-
[artedeconfeitar-csv]:
|
170 |
-
[artesanatonarede-csv]:
|
171 |
-
[artesetralhas-csv]:
|
172 |
-
[ascoresdasbeiras-csv]:
|
173 |
-
[astrath-csv]:
|
174 |
-
[atelierdasartes-csv]:
|
175 |
-
[audiobrasil]:
|
176 |
-
[autochampion-csv]:
|
177 |
-
[aveirofotoclube-csv]:
|
178 |
-
[aves-csv]:
|
179 |
-
[battlescenes-csv]:
|
180 |
-
[bboypt-csv]:
|
181 |
-
[beneficiencia-csv]:
|
182 |
-
[bondedastronda-csv]:
|
183 |
-
[bookess-csv]:
|
184 |
-
[brasilminis-csv]:
|
185 |
-
[bsfanfics-csv]:
|
186 |
-
[bttdavinha-csv]:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
13 |
|
14 |
Textos variados em português do Brasil.
|
15 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
16 |
## Fóruns
|
17 |
|
18 |
Tema | Link do fórum | Dataset com scrap realizado
|
|
|
122 |
[bsfanfics]: https://bsfanfics.forumeiros.com
|
123 |
[bttdavinha]: https://bttdavinha.forumeiros.com
|
124 |
|
125 |
+
[100teto-csv]: forumeiros/100teto.csv
|
126 |
+
[1130-csv]: forumeiros/1130.csv
|
127 |
+
[1piecebr-csv]: forumeiros/1piecebr.csv
|
128 |
+
[5meianoite-csv]: forumeiros/5meianoite.csv
|
129 |
+
[a3cn-csv]: forumeiros/a3cn.csv
|
130 |
+
[accampanha-csv]: forumeiros/accampanha.csv
|
131 |
+
[aeroaguia-csv]: forumeiros/aeroaguia.csv
|
132 |
+
[agilitybr-csv]: forumeiros/agilitybr.csv
|
133 |
+
[agilityrj-csv]: forumeiros/agilityrj.csv
|
134 |
+
[alphamaker-csv]: forumeiros/alphamaker.csv
|
135 |
+
[alyssamilano-csv]: forumeiros/alyssamilano.csv
|
136 |
+
[amam-csv]: forumeiros/amam.csv
|
137 |
+
[animalistic-csv]: forumeiros/animalistic.csv
|
138 |
+
[aquaticosssa-csv]: forumeiros/aquaticosssa.csv
|
139 |
+
[arjuventudemuro-csv]: forumeiros/arjuventudemuro.csv
|
140 |
+
[armazemcriativo-csv]: forumeiros/armazemcriativo.csv
|
141 |
+
[arsenalmodelismo-csv]: forumeiros/arsenalmodelismo.csv
|
142 |
+
[arte108-csv]: forumeiros/arte108.csv
|
143 |
+
[artedeconfeitar-csv]: forumeiros/artedeconfeitar.csv
|
144 |
+
[artesanatonarede-csv]: forumeiros/artesanatonarede.csv
|
145 |
+
[artesetralhas-csv]: forumeiros/artesetralhas.csv
|
146 |
+
[ascoresdasbeiras-csv]: forumeiros/ascoresdasbeiras.csv
|
147 |
+
[astrath-csv]: forumeiros/astrath.csv
|
148 |
+
[atelierdasartes-csv]: forumeiros/atelierdasartes.csv
|
149 |
+
[audiobrasil-csv]: forumeiros/audiobrasil.csv
|
150 |
+
[autochampion-csv]: forumeiros/autochampion.csv
|
151 |
+
[aveirofotoclube-csv]: forumeiros/aveirofotoclube.csv
|
152 |
+
[aves-csv]: forumeiros/aves.csv
|
153 |
+
[battlescenes-csv]: forumeiros/battlescenes.csv
|
154 |
+
[bboypt-csv]: forumeiros/bboypt.csv
|
155 |
+
[beneficiencia-csv]: forumeiros/beneficiencia.csv
|
156 |
+
[bondedastronda-csv]: forumeiros/bondedastronda.csv
|
157 |
+
[bookess-csv]: forumeiros/bookess.csv
|
158 |
+
[brasilminis-csv]: forumeiros/brasilminis.csv
|
159 |
+
[bsfanfics-csv]: forumeiros/bsfanfics.csv
|
160 |
+
[bttdavinha-csv]: forumeiros/bttdavinha.csv
|
161 |
+
[buraconegrospirit-csv]: forumeiros/buraconegrospirit.csv
|
162 |
+
|
163 |
+
## Crawling com wget
|
164 |
+
|
165 |
+
O conteúdo obtido de páginas da web foi acessado com ajuda do comando `wget`, que suporta varrer um website obtendo suas páginas (crawling). Cada website requereu diferentes argumentos dentre os listados abaixo:
|
166 |
+
|
167 |
+
Parâmetro | Descrição
|
168 |
+
--------- | ---------
|
169 |
+
`--adjust-extension` | Garante que ".html" seja adicionado aos arquivos.
|
170 |
+
`--convert-links` | Converte links para links locais (útil para visualização offline).
|
171 |
+
`--directory-prefix=/my/directory` | Define o diretório de destino.
|
172 |
+
`--include-directories=posts` | Lista separada por vírgulas dos diretórios permitidos a serem seguidos no rastreamento.
|
173 |
+
`--level=inf` | Define o nível de recursão como infinito.
|
174 |
+
`--no-check-certificate` | Ignora a verificação de certificado SSL.
|
175 |
+
`--no-clobber` | Evita o download de arquivos que já existem localmente.
|
176 |
+
`--no-remove-listing` | Mantém os arquivos ".listing" criados para registrar o conteúdo dos diretórios.
|
177 |
+
`--page-requisites` | Faz download de imagens embutidas, sons e folhas de estilo referenciadas.
|
178 |
+
`--random-wait` | Multiplica o `--wait` aleatoriamente entre 0,5 e 1,5 para cada requisição.
|
179 |
+
`--recursive` | Habilita o download recursivo (segue links).
|
180 |
+
`--reject "*\?*"` | Rejeita URLs que contenham strings de consulta.
|
181 |
+
`--span-hosts` | Permite download de arquivos de links que apontam para diferentes hosts.
|
182 |
+
`--user-agent` | Envia o cabeçalho "User-Agent" especificado para o servidor.
|
183 |
+
`--wait=6` | Aguarda o número especificado de segundos entre cada requisição.
|
184 |
+
`-domains` | Lista separada por vírgulas dos domínios a serem seguidos.
|
185 |
+
`-e robots=off` | Ignora instruções do arquivo `robots.txt`.
|
186 |
+
|
187 |
+
Todo o crawling foi realizado utilizado um thin client de baixo consumo de energia e, atráves do parâmetro `--wait`, **houve um cuidado para não sobrecarregar os servidores sendo acessados**.
|