我們實(shí)測(cè)了Unsloth所帶來的訓(xùn)練增益,對(duì)Llama3-8B進(jìn)行QLoRA訓(xùn)練,最少僅需7.75GB顯存,這意味著我們可以在一張1080Ti上訓(xùn)練Llama3-8B,進(jìn)一步降低了大模型訓(xùn)練的硬件門檻。開啟Unsloth后,Llama3-8B的訓(xùn)練速度可提升44.35%,訓(xùn)練時(shí)間可減少30.72%,顯存占用可減少42.58%。更詳細(xì)的測(cè)試設(shè)置可參考第三節(jié)。