--- dataset_info: features: - name: clean_en sequence: string - name: clean_zh sequence: string - name: record dtype: string - name: en2zh sequence: string splits: - name: train num_bytes: 12473072134 num_examples: 165840 download_size: 6289516266 dataset_size: 12473072134 configs: - config_name: default data_files: - split: train path: data/train-* --- # Dataset Card for "undl_en2zh_translation" (undl_text)[https://huggingface.co/datasets/bot-yaya/undl_text]数据集的全量英文段落翻中文段落,是我口胡的基于翻译和最长公共子序列对齐方法的基础(雾)。 机翻轮子使用argostranslate,使用google云虚拟机的36个v核、google colab提供的免费的3个实例、google cloud shell的1个实例,我本地电脑的cpu和显卡,还有帮我挂colab的ranWang,帮我挂笔记本和本地的同学们,共计跑了一个星期得到。 感谢为我提供算力的小伙伴和云平台! google云计算穷鬼算力白嫖指南: - 绑卡后的免费账户可以最多同时建3个项目来用Compute API,每个项目配额是12个v核 - 选计算优化->C2D实例,高cpu,AMD EPYC Milan,这个比隔壁Xeon便宜又能打(AMD yes)。一般来说,免费用户的每个项目每个区域的配额顶天8vCPU,并且每个项目限制12vCPU。所以我推荐在最低价区买一个8x,再在次低价区整一个4x。 - **重要!** 选抢占式(Spot)实例,可以便宜不少 - 截至写README,免费用户能租到的最低价的C2D实例是比利时和衣阿华、南卡。孟买甚至比比利时便宜50%,但是免费用户不能租 - 内存其实实际运行只消耗2~3G,尽可能少要就好,C2D最低也是cpu:mem=1:2,那没办法只好要16G - 13GB的标准硬盘、Debian 12 Bookworm镜像 - 开启允许HTTP和HTTPS流量