metadata
dataset_info:
features:
- name: clean_en
sequence: string
- name: clean_zh
sequence: string
- name: record
dtype: string
- name: en2zh
sequence: string
splits:
- name: train
num_bytes: 12473072134
num_examples: 165840
download_size: 6289516266
dataset_size: 12473072134
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
Dataset Card for "undl_en2zh_translation"
(undl_text)[https://huggingface.co/datasets/bot-yaya/undl_text]数据集的全量英文段落翻中文段落,是我口胡的基于翻译和最长公共子序列对齐方法的基础(雾)。
机翻轮子使用argostranslate,使用google云虚拟机的36个v核、google colab提供的免费的3个实例、google cloud shell的1个实例,我本地电脑的cpu和显卡,还有帮我挂colab的ranWang,帮我挂笔记本和本地的同学们,共计跑了一个星期得到。
感谢为我提供算力的小伙伴和云平台!
google云计算穷鬼算力白嫖指南:
- 绑卡后的免费账户可以最多同时建3个项目来用Compute API,每个项目配额是12个v核
- 选计算优化->C2D实例,高cpu,AMD EPYC Milan,这个比隔壁Xeon便宜又能打(AMD yes)。一般来说,免费用户的每个项目每个区域的配额顶天8vCPU,并且每个项目限制12vCPU。所以我推荐在最低价区买一个8x,再在次低价区整一个4x。
- 重要! 选抢占式(Spot)实例,可以便宜不少
- 截至写README,免费用户能租到的最低价的C2D实例是比利时和衣阿华、南卡。孟买甚至比比利时便宜50%,但是免费用户不能租
- 内存其实实际运行只消耗2~3G,尽可能少要就好,C2D最低也是cpu:mem=1:2,那没办法只好要16G
- 13GB的标准硬盘、Debian 12 Bookworm镜像
- 开启允许HTTP和HTTPS流量