
0.5b 這種才是最有用的,因?yàn)樗梢匀f(wàn)能地微調(diào)成單一小任務(wù)。
而且它參數(shù)量小,本地跑,運(yùn)行快。
以前的那些nlp任務(wù)都可以用這種萬(wàn)金油來(lái)微調(diào)。
比如文章提取,文章樣式整理,數(shù)據(jù)格式轉(zhuǎn)換,文章校驗(yàn),快遞信息提取等。
你可能會(huì)說(shuō)我為什么不用傳統(tǒng)的nlp來(lái)干? 主要是現(xiàn)在的llm模型,從訓(xùn)練到部署已經(jīng)非常的流水線了,不會(huì)深度學(xué)習(xí)的人也能訓(xùn)練一個(gè)并部署,這個(gè)流水線簡(jiǎn)單到,真的只需要處理數(shù)據(jù)集而已。
整個(gè)過(guò)程你甚至不需要寫…。