DoNews11月14日消息,在 Yi-34B 的 Hugging Face 開源主頁上,開發者 ehartford 質疑稱該模型使用了 Meta LLaMA 的架構,只對兩個張量(Tensor)名稱進行了修改,分別為 input_layernorm 和 post_attention_layernorm。
據IT之家報道,ehartford 表示開源社區肯定會重新發布 Yi 大模型,并重命名張量以符合 LLaMA 架構。他希望該公司在模型獲得大量采用之前考慮將這一更改應用到官方模型中。
與此同時,14日,網上今日流傳著一張原阿里首席 AI 科學家賈揚清的朋友圈,該內容稱“某國內大廠新模型 exactly 就是 LLaMA 的架構,但是為了表示不一樣,把代碼里面的名學從 LLaMA 改成了他們的名字,然后換了幾個變量名”。
截至發文,零一萬物官方暫未進行回應。