據了解,斯坦福某團隊在5月29日剛發布Llama3-V,對外宣稱隻需500美元極客訓出一個SOTA多模態大模型,比GPT-4V、Gemini Ultra、Claude Opus都強。
而Llama3-V的3位“開發者”(Aksh Garg、Siddharth、Mustafa),或有名校頭銜加持,或有特斯拉、SpaceX等大廠背景,該項目一度受到了業界的極大關注。
但是有專業人士發現,通過對比Llama3-V與清華係明星創業公司麵壁智能開源的MiniCPM-Llama3-V 2.5(人稱“小鋼炮”),發現兩者的模型結構、代碼、配置文件,幾乎一模一樣,僅僅是修改了變量名。
很快,麵壁智能團隊證實,斯坦福大模型項目Llama3-V與MiniCPM一樣,可以識別出“清華簡”戰國古文字,“不僅對得一模一樣、連錯得都一模一樣”。這一古文字數據為研究團隊花費數月從清華簡上逐字掃描並人工標注得來,並未對外公開。
這樣一來,徹底證實:斯坦福大學AI團隊主導的 Llama3-V 開源模型抄襲國內清華與麵壁智能的開源模型MiniCPM-Llama3-V 2.5。
而更讓人大跌眼鏡的是,斯坦福團隊第一時間的做法竟是刪庫跑路,絲毫沒有世界頂級學府的嚴謹態度和責任心。
剛剛,迫於輿論壓力,斯坦福Llama3-V團隊的兩位作者Siddharth Sharma和 Aksh Garg在社交平台上就這一學術不端行為向麵壁MiniCPM團隊正式道歉,並表示會將Llama3-V模型悉數撤下。