日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca

發布時間:2024/3/13 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

昨天在github上看到一個在本地部署中文大模型的項目,和大家分享一下。先把地址po出來。

項目名稱:中文LLaMA&Alpaca大語言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)
項目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca

以下是原github中給出的體驗GIF,可以看到這個模型還是具備一定的指令理解和上下文對話能力的。

由于模型使用的是LoRA(一種高效模型訓練方法),所以整個模型的參數量是比較小的(壓縮包大概不到800M),但是需要和原版Facebook的權重進行結合才能使用。其實Facebook開源了,但又沒完全開源,薛定諤的貓(滑稽)。所以大家自己想辦法去搞到原版權重吧。

整個合并流程在原項目里寫的都比較清楚,大家可以自己去看一下,需要alpaca-lora和llama.cpp兩個工具。
具體步驟就不贅述了,感興趣的看一下項目中的描述。

我使用的是蘋果M1芯片,整體上沒遇到什么麻煩,很順利的就完成了模型量化過程,最終模型大概是4G。接下來就可以歡快地在本地玩耍了。解碼參數就用的項目中提供的默認配置。

接下來就用量化后的模型測一下效果。需要注意的是量化后會有精度損失,效果應該是沒有完整版的好,但好在速度快。

我先問一個關于溫室效應的問題

整體上我覺得答得還是蠻不錯的,而且也具備一些上下文的理解能力,而不是單輪能力。

再問一個數學問題

可以看到這里的回答不盡人意,也是很多開源模型的硬傷,對數值計算和推理方面不是很在行。

如何制作宮保雞丁?

可以看到制作宮保雞丁的一些要素是包含了,但是可以想象出這個做出來可能并不是宮保雞丁 😂

寫一封信

寫信方面做的還是不錯的,雖然里面有一些小細節還需要再斟酌和修改。

最后再來幾個翻譯吧

整體翻譯的還是不錯的,沒有什么大毛病。

總結

整體而言,該模型具備一定的中文理解能力,也有類似ChatGPT的指令執行和上下文理解能力,對于一些常規的非推理類的任務來說還是比較好的。但也能看到在數學、推理、代碼等場景效果不好。這可能是因為訓練數據里沒有涉及太多這部分數據的關系。相信之后會有更多類似的模型出現,進一步降低大模型的門檻。

總結

以上是生活随笔為你收集整理的【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。