--- language: - en tags: - 16k - ScienceQA - Textbooks - Base base_model: unakar/Unakar1.5B-base pipeline_tag: text-generation --- 此为base model,未经SFT与DPO对齐,不具备指令跟随能力。模型在科学知识问题上比较突出,代码和写作能力一般。 Instruct版本见https://huggingface.co/unakar/Unakar-1.5B-Instruct 争取10月前放出完整的教程/技术报告/pretrain数据/全流程logbook Pretrain数据主要来自huggingface上一些开源数据,经过合成过滤得到,比如fineweb-edu,dclm, llama3-syne。考虑到phi的textbook is all your need,大部分主题都是wiki和textbook。其余是代码/数学/问答/推理/通用等等。 模型架构基本沿用llama,修改了mlp-ratio为2.6875以获得理想最大tflops数。GQA,rope也没什么好说的。 训练采用32卡数据并行,zero1, 约3天完成。三阶段pretrain,依次是通用-数学/代码推理-长上下文。末期退火测了一批数据质量。 微调分二阶段进行,基本沿用阿里23年10月那篇,此处不再赘述。RLHF使用DPO,数据均来自开源数据集。 且待后续完善!进行ing