--- license: mit --- # 模型训练过程汇总(持续更新中) 对于已收集的每一个模型,`code` 目录为模型定义、训练和测试的代码和脚本文件,`model` 目录为已收集的 epoch 模型文件,`dataset.zip` 为模型数据集。 下表汇总了所有收集的模型训练过程信息:
模型名称 模型简介 模型类型 Epoch数量 数据集信息
Clone-detection-BigCloneBench 基于大规模代码克隆基准数据集的代码克隆检测模型,任务是进行二元分类(0/1),其中1代表语义等价,0代表其他情况。 代码克隆检测 2个epoch BigCloneBench数据集
Clone-detection-POJ-104 基于POJ-104数据集的代码克隆检测模型,任务是识别不同编程题目中相似的代码实现,给定一段代码和一组候选代码,任务是返回具有相同语义的Top K个代码 代码克隆检测 2个epoch (0-1) POJ-104编程题目数据集
CodeCompletion-token 基于token级别的代码自动补全模型 代码补全 5个epoch (Java语料库) Java代码token序列数据集
Defect-detection 代码缺陷检测模型,通过分析代码来识别潜在的缺陷和错误(进行二元分类(0/1)) 代码缺陷检测 5个epoch 包含缺陷标注的C语言代码数据集
code-refinement 代码优化模型 代码优化/重构 34个epoch(small数据集) 代码优化前后对数据集(C语言)
code-to-text 代码到自然语言的转换模型 代码注释生成 每种语言10个epoch (支持Python/Java/JavaScript/PHP/Ruby/Go) 多语言代码-文本对数据集
NL-code-search-Adv 高级自然语言代码搜索模型,通过计算自然语言查询与代码片段之间的相似性来实现代码搜索, 代码搜索 2个epoch 自然语言-(python)代码对数据集
NL-code-search-WebQuery 基于Web查询的代码搜索模型,该模型通过编码器处理代码和自然语言输入,并利用多层感知器(MLP)来计算相似性得分 代码搜索 两个数据集各3个epoch Web查询-代码对数据集(CodeSearchNet数据集和CoSQA数据集(python))
text-to-code 自然语言到代码的生成模型 代码生成 23个epoch 文本描述-代码(c语言)对数据集
Graph 在QM9数据集上训练的图掩码自编码器,通过对分子图中的原子的坐标以及类型进行预测实现自监督训练 图自编码器 10个epoch 分子属性预测数据集