|
--- |
|
license: mit |
|
--- |
|
# 模型训练过程汇总(持续更新中) |
|
|
|
对于已收集的每一个模型,`code` 目录为模型定义、训练和测试的代码和脚本文件,`model` 目录为已收集的 epoch 模型文件,`dataset.zip` 为模型数据集。 |
|
|
|
下表汇总了所有收集的模型训练过程信息: |
|
|
|
<table> |
|
<tr> |
|
<th>模型名称</th> |
|
<th>模型简介</th> |
|
<th>模型类型</th> |
|
<th>Epoch数量</th> |
|
<th>数据集信息</th> |
|
</tr> |
|
<tr> |
|
<td>Clone-detection-BigCloneBench</td> |
|
<td>基于大规模代码克隆基准数据集的代码克隆检测模型,任务是进行二元分类(0/1),其中1代表语义等价,0代表其他情况。</td> |
|
<td>代码克隆检测</td> |
|
<td>2个epoch</td> |
|
<td>BigCloneBench数据集</td> |
|
</tr> |
|
<tr> |
|
<td>Clone-detection-POJ-104</td> |
|
<td>基于POJ-104数据集的代码克隆检测模型,任务是识别不同编程题目中相似的代码实现,给定一段代码和一组候选代码,任务是返回具有相同语义的Top K个代码</td> |
|
<td>代码克隆检测</td> |
|
<td>2个epoch (0-1)</td> |
|
<td>POJ-104编程题目数据集</td> |
|
</tr> |
|
<tr> |
|
<td>CodeCompletion-token</td> |
|
<td>基于token级别的代码自动补全模型</td> |
|
<td>代码补全</td> |
|
<td>5个epoch (Java语料库)</td> |
|
<td>Java代码token序列数据集</td> |
|
</tr> |
|
<tr> |
|
<td>Defect-detection</td> |
|
<td>代码缺陷检测模型,通过分析代码来识别潜在的缺陷和错误(进行二元分类(0/1))</td> |
|
<td>代码缺陷检测</td> |
|
<td>5个epoch</td> |
|
<td>包含缺陷标注的C语言代码数据集</td> |
|
</tr> |
|
<tr> |
|
<td>code-refinement</td> |
|
<td>代码优化模型</td> |
|
<td>代码优化/重构</td> |
|
<td>34个epoch(small数据集)</td> |
|
<td>代码优化前后对数据集(C语言)</td> |
|
</tr> |
|
<tr> |
|
<td>code-to-text</td> |
|
<td>代码到自然语言的转换模型</td> |
|
<td>代码注释生成</td> |
|
<td>每种语言10个epoch (支持Python/Java/JavaScript/PHP/Ruby/Go)</td> |
|
<td>多语言代码-文本对数据集</td> |
|
</tr> |
|
<tr> |
|
<td>NL-code-search-Adv</td> |
|
<td>高级自然语言代码搜索模型,通过计算自然语言查询与代码片段之间的相似性来实现代码搜索,</td> |
|
<td>代码搜索</td> |
|
<td>2个epoch</td> |
|
<td>自然语言-(python)代码对数据集</td> |
|
</tr> |
|
<tr> |
|
<td>NL-code-search-WebQuery</td> |
|
<td>基于Web查询的代码搜索模型,该模型通过编码器处理代码和自然语言输入,并利用多层感知器(MLP)来计算相似性得分</td> |
|
<td>代码搜索</td> |
|
<td>两个数据集各3个epoch</td> |
|
<td>Web查询-代码对数据集(CodeSearchNet数据集和CoSQA数据集(python))</td> |
|
</tr> |
|
<tr> |
|
<td>text-to-code</td> |
|
<td>自然语言到代码的生成模型</td> |
|
<td>代码生成</td> |
|
<td>23个epoch</td> |
|
<td>文本描述-代码(c语言)对数据集</td> |
|
</tr> |
|
</table> |
|
|