bot-yaya's picture
Update README.md
c5a1cf7
metadata
dataset_info:
  features:
    - name: clean_en
      sequence: string
    - name: clean_zh
      sequence: string
    - name: record
      dtype: string
    - name: en2zh
      sequence: string
  splits:
    - name: train
      num_bytes: 12473072134
      num_examples: 165840
  download_size: 6289516266
  dataset_size: 12473072134
configs:
  - config_name: default
    data_files:
      - split: train
        path: data/train-*

Dataset Card for "undl_en2zh_translation"

(undl_text)[https://huggingface.co/datasets/bot-yaya/undl_text]数据集的全量英文段落翻中文段落,是我口胡的基于翻译和最长公共子序列对齐方法的基础(雾)。

机翻轮子使用argostranslate,使用google云虚拟机的36个v核、google colab提供的免费的3个实例、google cloud shell的1个实例,我本地电脑的cpu和显卡,还有帮我挂colab的ranWang,帮我挂笔记本和本地的同学们,共计跑了一个星期得到。

感谢为我提供算力的小伙伴和云平台!

google云计算穷鬼算力白嫖指南:

  • 绑卡后的免费账户可以最多同时建3个项目来用Compute API,每个项目配额是12个v核
  • 选计算优化->C2D实例,高cpu,AMD EPYC Milan,这个比隔壁Xeon便宜又能打(AMD yes)。一般来说,免费用户的每个项目每个区域的配额顶天8vCPU,并且每个项目限制12vCPU。所以我推荐在最低价区买一个8x,再在次低价区整一个4x。
  • 重要! 选抢占式(Spot)实例,可以便宜不少
  • 截至写README,免费用户能租到的最低价的C2D实例是比利时和衣阿华、南卡。孟买甚至比比利时便宜50%,但是免费用户不能租
  • 内存其实实际运行只消耗2~3G,尽可能少要就好,C2D最低也是cpu:mem=1:2,那没办法只好要16G
  • 13GB的标准硬盘、Debian 12 Bookworm镜像
  • 开启允许HTTP和HTTPS流量