Accuracy
TP | TN | |
---|---|---|
FP | 447 | 141 |
FN | 39 | 373 |
μ νλ: 82%(447+373/1000)
-Train λ°μ΄ν°λ nsmc['train']μ shuffleν λ€μμ μμ 5000κ°λ₯Ό νμ©νμμ΅λλ€
-Test λ°μ΄ν°λ nsmc['train']μ shuffleν λ€μμ μμ 1000κ°λ₯Ό νμ©νμμ΅λλ€.
-1000κ°μ train λ°μ΄ν° μ€ 820κ°λ₯Ό μ ννκ² λΆλ₯νμμ΅λλ€.
-Base Modelμ meta-llama/Llama-2-7b-chat-hfλ‘, base modelμ Lora μ΄λν°λ₯Ό λΆμ¬μ SFTtrainerλ₯Ό ν΅νμ¬ μλ‘μ΄ λ°μ΄ν°μ nsmcμ λν΄μ λ―ΈμΈνλμ νμμ΅λλ€.
-λ―ΈμΈνλν λ‘λΌ μ΄λν°λ₯Ό νκΉ νμ΄μ€μ μ λ‘λν ν 4λΉνΈλ‘ μμνλ base modelμ λΆμΈ ν μΆλ‘ μ νμμ΅λλ€.
-μμ 2000κ°μ train_datasetμ λν΄μ νλ ¨μ ν ν μμ 1000κ°μ test_datasetμ λν΄μ μΆλ‘ μ ν κ²°κ³Όλ μμ νμ κ°μ΅λλ€.
-μ νλ ν₯μμ μνμ¬ test λ°μ΄ν°μ μ ν¬κΈ°λ₯Ό λλ¦¬λ € νμμΌλ, GPU μ©λ μ νμΌλ‘ μΈνμ¬ μ§μμ μΌλ‘ μ€λ₯κ° λ°μνμμ΅λλ€.
- Downloads last month
- 13
Model tree for kayla0913/hw-llama2-7B-nsmc
Base model
meta-llama/Llama-2-7b-chat-hf