字節跳動大模型訓練被實習生攻擊 損失或超千萬美元

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

10月18日,多個微信群流傳一則消息:“某頭部大廠的大模型訓練被實習生入侵,注入了破壞代碼,導致其訓練成果不可靠,可能需要重新訓練。據稱遭到入侵的代碼注入了8000多張卡,帶來的損失可能超過千萬美元。”

界麵新聞從知情人士處獲悉,該頭部大廠為字節跳動。此事發生在今年6月,起因是某高校的博士在字節跳動商業化技術團隊實習,因對團隊資源分配不滿,使用攻擊代碼破壞團隊的模型訓練任務。

界麵新聞向字節跳動方麵求證此事,截至目前,官方未進行回應。

傳聞顯示,該田姓實習生利用了HF(huggingface)的漏洞,在公司的共享模型裏寫入破壞代碼,導致模型的訓練效果忽高忽低,無法產生預期的訓練效果,而且AML團隊無法核查原因。但傳聞曝出之後,該實習生還在某微信群裏辟謠稱,自己發完論文後就從字節跳動離職,這個當口有另一個人鑽漏洞改模型代碼,把鍋扣到自己頭上。

界麵新聞從知情人士處了解到,字節跳動內部已經調查明確此事為田姓實習生所為。目前,該實習生已被辭退,字節跳動同時把此事同步給大模型行業聯盟和該實習生所在的學校。但這名實習生被辭退後到處“辟謠”甩鍋,稱是其他人所為。

但該實習生攻擊的並不是豆包大模型,而是商業化技術團隊的模型訓練任務,影響了該技術團隊的一些業務進展,但整體對公司造成的損失並沒有傳聞中的超過千萬美元那麽大。

一位技術安全專家告訴界麵新聞,HF漏洞產生肯定是單一性集中訓練,此事暴露了字節跳動技術訓練存在安全管理問題。公司既沒做權限隔離,也沒有做好共用代碼的審計。正常情況下,每次大的代碼變動必須做審計,無論誰做操作都有痕跡記錄,一個人想動代碼是不可能的。

上述技術安全專家表示,目前行業通用的做法是做三級隔離導向性部署,每一級隻有鏡像,每次先掃描。調用按次算、必須密鑰。每一級完成後,才能進入下一級,而上一級自動刪除,進行分級訓練。

查看評論(8)