矽穀新王國會質詢2.5萬字全文:如果AI技術出錯...

矽穀新王國會質詢2.5萬字全文:如果AI技術出錯...
0:00
0:00
文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

劃重點:

1. Sam Altman 認為與所有的技術革命一樣,AI會對就業產生重大影響。但GPT-4是一個工具,而不是一種生物,它更擅長完成任務,而不是工作。因此它將創建我們認為更好的新工作。

2. 對於AI大規模部署,Sam Altman認為在暗地裏構建一個超強大的人工智能係統,然後一下子把它投放到世界上這不會奏效。OpenAI的戰略是當這些係統仍然相不完美時,找到方法讓人們對它們有經驗,與現實接觸,通過反饋找出使其變得更安全和更好的方法。

3. Sam Altman對監管的幾點建議:1)成立一個新的機構,對超過一定規模的功能進行許可,並可以收回許可證,確保遵守安全標準。2)製定一套安全標準,重點關注危險能力評估。我們以前用過的一個例子是檢查看模型是否可以自我複製和自行滲透到外部。3)要求獨立審計,而不僅僅是公司或機構自我審查,還要有廣泛外部專家的評價意見。

4. 在隱私保護層麵:用戶能夠選擇退出,不讓類似我們公司或社交媒體公司這樣的公司使用他們的數據,而且易於刪除自己的數據。如果用戶不希望自己的數據用於訓練這些係統,他有權這樣做。



國會聽證會主席:

現在讓我介紹一下證人。我們非常感謝你們能來這裏。

Sam Altman是OpenAI的聯合創始人兼首席執行官,OpenAI是負責ChatGPT和DALL·E等人工智能研究和應用的公司。Altman先生曾擔任Y Combinator創業加速器的總裁,從2014年到2019年。OpenAI成立於2015年。

Christina Montgomery是IBM的副總裁兼首席隱私和信任官,負責公司的全球隱私計劃、政策合規和戰略。她還擔任IBM人工智能倫理委員會和多樣性團隊的主席,負責人工智能和新興技術的治理。Christina在IBM擔任多種職務,包括公司董事會的公司秘書。她是人工智能倫理和政府方麵的全球領導者,同時還是美國商會人工智能委員會和美國國家人工智能谘詢委員會的成員,該委員會於2022年成立,為總統和國家人工智能倡議辦公室提供有關人工智能相關議題的建議。

Gary Marcus是人工智能領域的主要聲音,他是一位科學家、暢銷書作者和企業家,是Robust AI和Geometric AI的創始人(如果我沒記錯的話,它被Uber收購),他還是紐約大學心理學和神經科學的名譽教授。Marcus先生以對當代人工智能的挑戰而聞名,他在幾十年前就預見到了許多當前的局限,並在人類語言發展和認知神經科學方麵進行了研究。

感謝你們的出席。正如你們所知,我們司法委員會的習慣是在證人作證之前對他們進行宣誓。請你們都站起來,舉起右手。你們發誓你們即將作證的內容是真實的、全部的,沒有任何虛假,對此表示同意嗎?謝謝。

Altman先生,如果可以的話,我們將從您開始。

Sam:

謝謝。謝謝主席達赫爾、霍利排名委員會成員。非常感謝能有機會在這裏向大家講話,談論大型神經網絡。對我來說,能在此刻出席比我預期的還要光榮。我叫Sam Altman,我是OpenAI的首席執行官。

OpenAI的成立是基於這樣的信念,人工智能有潛力改善我們生活的方方麵麵,但同時也會帶來嚴重的風險,我們必須共同努力來管理這些風險。我們在這裏是因為人們熱愛這項技術,我們認為它可能是印刷機的時刻,我們必須共同努力使其成為現實。

OpenAI是一家非同尋常的公司,我們設立它就是因為人工智能是一項非同尋常的技術。我們受非營利組織的管理,我們的活動由我們的使命和章程驅動,我們致力於確保人工智能的利益廣泛分布,並最大限度地提高人工智能係統的安全性。我們正在努力開發一種工具,將來可以幫助我們發現新知識,解決人類麵臨的最大挑戰,如氣候變化和治愈癌症。

我們現有的係統還不具備這些能力,但看到全球許多人已經從這些係統中獲得了如此多的價值,這是非常令人滿意的。我們喜歡看到人們使用我們的工具來創造、學習、提高生產力,我們非常樂觀地認為未來會有很多好的工作,現有的工作也能變得更好。我們也看到開發人員為改善生活所做的努力,例如,Be My Eyes利用我們GPT-4中的新型多模態技術,幫助視障人士在環境中導航。

我們相信迄今部署的工具的好處遠遠超過風險,但確保它們的安全對我們的工作至關重要,我們會付出巨大努力,在所有層麵上確保安全內置於我們的係統中。在發布任何新係統之前,OpenAI都會進行廣泛的測試,與外部專家進行詳細審查和獨立審核,改進模型的行為,並實施強大的安全和監測係統。在發布我們最新的模型GPT-4之前,我們花了六個多月進行廣泛的評估、外部紅隊測試和危險能力測試。我們為我們取得的進展感到自豪,GPT-4比其他功能相似的廣泛部署模型更有可能作出有益和真實的回應,拒絕有害的請求。

然而,我們認為政府的監管幹預將是至關重要的,例如,美國政府可以考慮對開發和發布超過一定能力門檻的人工智能模型實施許可和測試要求。在我的書麵證詞中,我還提到了其他幾個領域,在這些領域,我相信像我們這樣的公司可以與政府合作,包括確保最強大的人工智能模型遵守一套安全要求,促進製定和更新安全措施的過程,探索全球協作的機會。

正如你們提到的,我認為公司在這方麵也有責任,無論國會做什麽,這是一個非凡的時刻,從事人工智能工作。但隨著這項技術的發展,我們理解到人們對它可能改變我們生活方式的擔憂,我們也有同樣的擔憂。但我們相信我們可以並且必須共同努力,識別和管理潛在的負麵影響,以便我們都能享受巨大的好處。確保強大的人工智能以民主的價值觀為基礎的發展至關重要,這意味著美國的領導地位至關重要。我相信我們能夠應對眼前的風險,並真正利用這項技術的潛力,推動美國和全世界的經濟增長。我期待著與大家共同應對這個時刻,並回答你們的問題。

主席:

謝謝Altman先生。

我們將進行7分鍾的提問環節,我將首先提問。首先,我們今天在這裏是因為我們確實麵臨完美風暴。我們中的一些人可能更傾向於將其比作瓷器店中的炸彈,而不是公牛。正如霍利參議員所指出的,這裏有先例,不僅是原子武器時代,還有基因組項目和遺傳學研究,這導致了國際合作。我們想避免在社交媒體上犯下的過去錯誤,正如我在開場白中所指出的。

ChatGPT和所有的AI都會出錯,它可以成為令人信服的騙子,人們稱之為幻覺。這可能是司法委員會聽證會開場時無害的問題,在這種情況下,我的聲音被模仿,或不存在的研究論文被引用。但是,ChatGPT和Bard願意回答有關生死大事的問題,例如藥物相互作用,這種錯誤可能造成深遠的損害。

我對如何獲得關於這些模型的準確性和可信度的可靠信息,以及如何創建獎勵更高準確性的競爭和消費者披露感興趣。美國國家標準與技術研究院實際上已經有了AI準確性測試——麵部識別供應商測試。它沒有解決麵部識別的所有問題,但評分卡確實提供了關於這些係統的功能和缺陷的有用信息。因此,有關確保準確性和完整性的模型的工作(是必要的)。

我的問題,Altman先生,我們應該考慮獨立測試實驗室為評分卡和類似營養標簽或等價的營養標簽的包裝表明人們是否可以信任該內容,它的成分是什麽,輸入的垃圾可能是什麽,因為它可能導致輸出的垃圾?

Sam:

是的,我認為這是一個很好的主意。我認為公司應該在發布模型之前公布自己的測試結果,包括模型的弱點和優勢。此外,獨立審計對此也非常重要。這些模型隨著時間的推移變得更加準確。正如我們聲稱的那樣,這項技術還處於早期階段,它確實仍然會出錯。

我們發現用戶相當有思考,了解模型可能出現的錯誤,需要對模型的說法負責,他們去查證它。我擔心隨著模型變得越來越好,用戶可以逐漸減少自己對它的判斷思維過程。但是,我認為在這種對話中,用戶的能力往往比我們給予他們的信用更強。

大量披露對模型的不準確性很重要,如果你使用過ChatGPT,你會發現這一點。我期待一個公司公布有關模型行為和不準確之處的信息的世界,獨立機構或公司也提供這些信息。我認為這是一個很好的主意。

主席:

在我的開場白中,我暗示了就業問題和對就業的經濟影響。

事實上,我要引用一下,你說過:“超級人工智能的發展可能是人類持續存在的最大威脅。”你可能考慮到了對就業的影響,這實際上是我長期以來最大的噩夢。

讓我問你,你最大的噩夢是什麽,你是否也有這種擔憂?

Sam:

與所有的技術革命一樣,我預期會對就業產生重大影響,但具體影響如何很難預測。如果我們回顧前一段技術革命的另一麵,談論存在於另一麵上的工作,你可以去讀當時人們的書,這很難。我相信在這之後會有更多的工作,今天的工作會變得更好。

首先,我認為重要的是要理解和思考GPT-4是一個工具,而不是一種生物,這很容易混淆。這是人們有很大控製權的工具,以及如何使用它。其次,GPT-4和其他類似的係統擅長完成任務,而不是工作。因此,你已經看到有人使用GPT-4以更高效的方式完成工作,這是通過幫助他們完成任務實現的。

GPT-4將完全自動化一些工作,它將創建我們認為更好的新工作。這是一再發生的事情。

我對技術曆史的理解就是一場長期的技術革命,而不是許多不同的技術革命聚集在一起。這一直在繼續發生。隨著我們的生活質量提高,和我們創造的機器和工具可以幫助我們過上更美好的生活,我們所做的工作的標準也在提高;我們的人類能力和我們花時間追求的事情,也在追求更雄心勃勃和更滿意的項目。

所以,這將對就業產生影響,我們試圖非常清楚地表達這一點。我認為這需要行業和政府的合作,但主要是政府采取行動來弄清楚我們如何減輕這種影響。但是,我對未來工作的前景非常樂觀。謝謝。

Marcus教授:剛才說到了就業,但是我覺得就業可能不是Sam最擔心的事兒,他最擔心的事情還沒說。

主席:

謝謝。Altman先生,您是否想對此作出回應?

Sam:

是的,我們盡量明確表示這裏的風險大小。

我認為工作和就業以及我們將如何利用我們的時間真的很重要。

我同意當我們擁有非常強大的係統時,格局將發生變化。我認為我隻是更樂觀地認為我們極其有創造力,我們會找到利用更好的工具做新事情的方法。這種情況會持續發生。

我最擔心的是我們會造成重大傷害,我們這個領域,這項技術,這個行業會對世界造成重大傷害。

我認為這可能以很多不同的方式發生。這就是我們創立公司的原因。這是我今天來這裏的主要原因以及我們過去來這裏的原因。我們能花些時間與你在一起。

我認為如果這項技術出錯,它會出錯得相當厲害。我們想明確表達這一點。我們想與政府合作防止這種情況發生。但我們盡量實事求是地看待負麵情景以及我們必須做的工作來緩解這種情況。

謝謝。

主席:

我們的希望是行業餘下部分會遵循你和IBM蒙哥馬利女士今天來的榜樣。像你私下做的那樣與我們見麵並幫助指導我們將要做的事情。

這樣我們可以瞄準危害並避免意外後果的好處。謝謝。

Hawley議員。

Hawley:

再次感謝主席。感謝證人出席。

Altman先生,我認為你在聖路易斯長大,如果我沒記錯的話。很高興看到這裏有一個偉大的密蘇裏人,謝謝。

我特別要在記錄中強調這一點。密蘇裏是一個偉大的地方。這是今天聽證會的重點。也許我們這就可以停了,主席先生。

讓我問一下你,Altman先生,我會從你開始,我隻是想說,我在這裏的問題是為了更好地理解,並請你們所有人幫助我們更好地理解這種生成式AI,特別是大型語言模型的能力以及其意義。我正在看一篇名為《基於媒體食譜訓練的大型語言模型可以預測公眾輿論》的論文,這是大約一個月前發布的,作者是Chew Andreas、Anselaberry和Roy,

他們的結論是,大型語言模型確實可以預測公眾輿論,他們對此進行了建模和解釋。他們最終得出結論,AI係統可以通過適應預訓練的語言模型對亞群體特定的媒體飲食進行預測,這意味著您可以向模型輸入特定的媒體信息,它可以以非常準確的方式預測人們的觀點。

我想將其放在選舉的背景下考慮。

如果這些大型語言模型甚至現在就可以基於我們輸入的信息相當準確地預測公眾輿論,在你甚至還沒有向公眾提問這些問題,會發生什麽情況?當公司實體、政府實體、競選活動或外國行動者利用這些調查信息、對公眾輿論的預測進行精確的調整策略,以引發特定的行為反應時,我是指我們在大約3年前的這個委員會上的證詞,關於穀歌搜索對選民在選舉中的影響,尤其是對未決選民在選舉最後幾天可能從穀歌搜索獲取信息的影響,以及穀歌搜索的排名和返回的文章對未決選民產生的巨大影響,這當然是數量級更大、意義更大、指向性更強的情況。

Altman先生,也許你可以幫助我理解一下這其中的一些意義,我們是否應該擔心能夠預測調查意見的大型語言模型,然後幫助組織和實體調整策略以引發選民的行為反應對於我們的選舉的影響,我們應該擔心這個問題嗎?

Sam:

謝謝霍利議員的問題,這是我最關注的一個領域。

這種模型的更普遍的能力,即操縱、說服、提供一對一的交互式虛假信息,我認為這是你所說的更廣泛的問題。但考慮到明年我們將麵臨選舉,而這些模型正在變得越來越好,我認為這還是一個令人擔憂的重要領域。

我認為有很多公司可以自願采用的政策,我很願意討論一下我們在這方麵的做法。我認為在這個問題上進行一些監管是相當明智的。

有人之前提到了一個我們非常讚同的事情,人們需要知道他們是否在與AI交談,他們正在查看的內容是否可能是由AI生成的,我認為這是一個很好的做法,可以明確這一點。

我認為我們還需要關於公司提供模型時所期望的披露內容的規則和指南,這些模型可能具有您所談到的這種能力。所以我對此感到緊張,但我認為人們能夠相當快速地適應。

當很久以前出現Photoshop時,人們在一段時間內確實被Photoshop的圖像所愚弄,然後很快就發展出了認識到圖像可能是經過Photoshop處理的意識,這將是一個加強版的情況,而且互動性能夠非常強,能夠真正地模擬和預測人類,就像你所提到的那樣。

我認為這將需要企業的正確做法,監管和公眾教育的結合。

Hawley:

關於訓練使用個人數據的人工智能係統,您擔心什麽............這種數據,例如,社交媒體公司的主要平台,穀歌、Meta等公司定期收集的所有數據?

我們委員會已經討論了這一點一年了。但是,公司擁有每個人海量的個人數據。

一個使用那些個人數據訓練的人工智能係統,它比我們自己更了解我們每個人,也知道關於人類行為、人類語言交互的數十億數據點。

難道我們不會認為一個人工智能係統極其擅長確定什麽會吸引人類的注意力,什麽會保持個人的注意力嗎?

目前,所有這些平台上都在進行注意力之爭,點擊之爭,所以他們可以賺錢。

我想象這些人工智能模型會加強這場注意力之爭,我們現在有的技術將允許前所未有的個人目標定位。

人工智能將準確地知道Sam Altman會感興趣的內容,準確地知道Josh Holly會感興趣的內容,將能夠引起我們的注意力,然後引發我們的反應,這是我們以前無法想象的。

我們應該擔心這對其商業應用、貨幣應用以及Altman先生可能產生的操縱有什麽影響嗎?

Sam:

是的,我們應該擔心這一點。

清楚地說,OpenAI不會。我們不是,你知道,我們的商業模式不是............所以我們沒有試圖建立用戶配置文件,我們沒有試圖讓他們使用更多。實際上,如果他們使用得更少,我們會很高興,因為我們沒有足夠的GPU。

但我認為其他公司已經開始並且未來肯定會使用人工智能模型來創建定製廣告,根據用戶喜歡預測。我認為這在許多方麵已經在發生。

Duben:

這是曆史性的聽證會,我無法回憶起我們曾邀請代表大公司或私營部門實體的人來到我們麵前,並懇請我們對他們進行監管。事實上,參議院的許多人將使經濟繁榮的職業生涯建立在相反的基礎上,如果政府遠離,經濟將蓬勃發展。

而我今天聽到的消息卻是“在我再次創新之前阻止我”。我隻是好奇我們如何實現這一點。

如我在開場白中提到的,我們在230條(美國於1996年頒布的法律,第 230 條保護提供商和個人免於因他人在線發布的非法內容而承擔重大法律責任。)中學到了一些東西。我們決定通過230條基本上會免除這個行業一段時間的責任,讓它成長。

Altman先生,今年早些時候在播客中,您同意主持人的說法,認為230條不適用於生成性人工智能,開發者像OpenAI不應該有權對其產品造成的損害免於全部責任。那麽,我們從230條中學到了什麽適用於您在人工智能方麵的情況?

Sam:

謝謝參議員的提問。我還不確定這裏的正確答案是什麽。我很樂意與您合作來解決這個問題。我確實認為對一項全新的技術,我們需要一個新的框架。

像我們這樣的公司肯定要為我們發布在世界上的工具承擔很大責任,但工具用戶也要如此,以及那些將建立在他們和最終消費者之間的企業。我們如何建立一項責任框架至關重要。我們很樂意一起工作。

Duben:

我要強調的一點是這樣的,當涉及到在線平台時,政府的傾向是遠離。這是一個新的行業,不要過度監管,事實上給予他們一些呼吸空間,看看會發生什麽。我不確定我對在線平台的結果感到滿意,以及它們造成的危害和我們在這個委員會中看到的問題,如兒童剝削、網絡欺淩、在線藥品銷售等。我不想再重複相同的錯誤。

而我聽到的來自私營部門的相反建議是,進入這個領域,建立一些責任標準和精確的監管。

對IBM這樣的大公司來說,向政府委員會表示,“請對我們進行監管”,這似乎是前所未有的。

您能解釋一下過去和現在的思維差異嗎?(先問了IBM的同學)

Sam:

我想簡短地回答參議員的問題。我支持Marcus先生的說法,認為美國應該在這裏發揮領導作用並率先采取行動。但要起作用,我們確實需要一些全球性的東西,正如您提到的,這可以在任何地方發生。

這樣聽起來天真地呼籲是有先例的,我們之前通過《信息技術協定》做到過,我們討論過為其他技術做同樣的事情。鑒於製造這些模型所需的芯片供應鏈、有限數量的競爭GPU和美國對這些公司的影響力,我認為有方法可以使美國設定一些國際標準,其他國家需要與之合作和參與,這些標準實際上是可行的。盡管表麵上看起來像一個不切實際的想法,我認為這將有益於世界。

Duben:

謝謝主席。

主席:

謝謝德比參議員。事實上,我認為我們將聽到更多關於歐洲正在做什麽的消息。歐洲議會已經在采取人工智能法案行動。在社交媒體方麵,歐洲領先於我們。我認為,您的觀點非常中肯。

讓我轉向Blackburn參議員。

Blackburn:

謝謝主席,謝謝各位今天來到這裏。

我在chatGPT帳戶中輸入了“國會應該監管人工智能chatGPT嗎?”,它給我列出了4個正麵因素,4個消極因素,並說最後的決定取決於國會,值得慎重考慮。

所以,在這方麵,它是一個非常平衡的回答。

我最近訪問了我代表田納西州的納什維爾技術理事會。當然,那裏有來自醫療保健、金融服務、物流和教育機構的人。他們擔心人工智能正在發生的事情,以及它對他們公司的利用。Montgomery女士,與您類似,他們有醫療保健人員正在研究疾病分析,他們正在研究預測診斷,這如何改善患者的結果。

物流行業正在研究如何節省時間和金錢,提高效率。

金融服務業表示,這如何與量子計算機、區塊鏈搭配使用,我們如何使用這些技術。

但主席先生,我們與他們討論時,一直出現的一個問題是,正如Marcus教授所說,歐盟和其他實體在這方麵領先於我們,但我們從未建立聯邦層麵的數據隱私或數據安全性的先例。這是我們需要解決的問題。

這將要求商業委員會和司法委員會決定如何向前發展,以便人們擁有自己的虛擬信息。

Altman先生,我很高興上周看到OpenAI模型不會使用消費者數據進行訓練。我認為這一點很重要。如果我們進行第二輪辯論,我有一係列關於數據安全和隱私的問題要問您。

我認為,讓人們控製自己在這些環境中的虛擬信息和信息至關重要。

我想問您關於音樂和內容創作的問題,因為我們有許多作曲家和藝術家,我認為我們擁有全球最優秀的創意團隊。在田納西州,他們應該有權決定是否使用其受版權保護的歌曲和圖像來訓練這些模型。

我擔心OpenAI的Jukebox,它提供一些加思·布魯克斯風格的重新演繹,這表明OpenAI使用加思·布魯克斯的歌曲進行了訓練。

這個周末,我說“給我寫一首聽起來像加思·布魯克斯的歌”,它給了我一首不同版本的《Simple Man》。有趣的是,它會這樣做。但是,您使用了這些受版權保護的歌曲、MIDI文件和聲音技術進行訓練。

那麽,在您做這些事情的過程中,誰擁有由人工智能生成的材料的權利?使用您的技術,我能否重做一首歌,插入我喜歡的藝術家的內容,然後擁有那首歌的創作權?

Sam:

謝謝參議員。這是一個我們非常感興趣的領域。首先,我要說的是,我們認為創作者應該對他們的創作如何被使用有控製權。其次,我認為,隨著這項新技術的出現,我們需要找到新的方法,創作者可以成功,活躍,我樂觀地認為這會帶來新的機遇。

Blackburn:

那麽,讓我問你,你如何補償藝術家?

Sam:

這正是我要說的。

Blackburn:

好的。

Sam:

我們現在正與藝術家合作,視覺藝術家,音樂家,以確定人們需要什麽。不幸的是,有很多不同的意見。到時候,我們會......

Blackburn:

讓我問你,你是否會模仿Sound Exchange,它在電台領域發揮了作用。

Sam:

我不太熟悉Sound Exchange,我很抱歉。

Blackburn:

好的,你後麵有團隊 待會回到我這裏(說這個),這是一個第三方實體。

Sam:

好的。

Blackburn:

讓我們討論一下,讓我轉移話題。你可以承諾,就像您對消費者數據所做的那樣,不要使用藝術家和作曲家的受版權保護作品或在首先獲得他們同意之前使用他們的聲音和肖像來訓練聊天機器人、OpenAI的Jukebox或其他人工智能模型嗎?

Sam:

首先,Jukebox不是我們提供的產品。那是一項研究發布,但它不是像聊天機器人或Dolly一樣。

Blackburn:

是的,但我們經曆過Nasper。

Sam:

是的,

Blackburn:

在數字分發時代,那真的讓許多藝術家損失了很多金錢。

Sam:

哦,我理解,當然。我不知道Jukebox的具體數字,作為一項研究發布,我可以跟進您的辦公室,但Jukebox並不是得到很多關注或使用的東西。它是為了顯示某些可能性而發布的。

Blackburn:

好的。

達賓參議員剛才說過,您知道,我認為這是一個公平的警告,如果我們不從一開始就參與進來,而您已經走了很長一段路,但如果我們不采取行動,這將超出您的控製範圍。

那麽,您是否正在與版權辦公室合作?您是否正在考慮在生成人工智能中保護內容生成者和創作者的權益?

Sam:

是的,我們絕對正在與之配合。再次重申我之前的觀點,我們認為內容創作者和內容所有者需要從這項技術中獲益。確切的經濟模式是什麽,我們還在與藝術家和內容所有者討論,以確定他們需要什麽。

我認為有很多種方式可以實現這一點,但不管法律是什麽,正確的做法是確保人們從這項新技術中獲得重大的益處。我們相信它真的會帶來這些好處,但內容所有者、形象和個人完全應該有權控製它們的使用方式,並從中獲益。

Blackburn:

好的,關於隱私問題,你們計劃如何考慮通過你們的AI應用收集聲音和其他用戶特定數據的問題,比如那些受版權保護的東西。如果我可以輸入“寫一首聽起來像加思·布魯克斯的歌”,然後它采用了現有歌曲的部分,那麽藝術家就必須得到相應的補償,因為如果是在廣播中播放,那麽就會有相應的補償;如果是在流媒體平台上播放,也會有相應的補償。

所以,如果你們要這樣做,你們的政策是什麽,以確保你們考慮到了這一點,保護個人的隱私權和他們對數據和創作作品的安全性。

Sam:

關於這個問題,我有幾點想法。首先,我們認為人們應該能夠說:“我不想讓我的個人數據用於訓練。”

BlackBurn:

我認為這是正確的。這需要製定一個全國性的隱私法律,我們這裏的一些人正在努力達成一項我們可以使用的協議。

Sam:

是的,我認為強有力的隱私法律是對的。

Blackburn:

我的時間到了,謝謝。

Klobuchar:

謝謝布萊克本議員的回應。謝謝大家,感謝主席先生。謝謝你們的到來。謝謝大家,布萊克本議員。謝謝大家,克洛沃議員。非常感謝,主席先生。布萊克本議員,我非常喜歡納什維爾,喜歡田納西州,喜歡你們的音樂。但是我要說,我使用過ChatGPT,並詢問過有史以來最偉大的創作歌手是誰,其中前三名中有兩位來自明尼蘇達州。所以那會是普林斯和鮑勃·迪倫。

好吧,好的,讓我們繼續。(其他人:AI不會改變這一點,笑),你在這裏看到了。

好,說正經的。我和我的團隊,在我作為規則委員會主席的角色中,在領導許多選舉法案方麵,我們剛剛提出了一項由紐約的伊芙·克拉克代表在眾議院提出的法案,我、布克和貝內特也參與了其中,關於政治廣告的事情。但這隻是冰山一角,你們了解這一點,你們和霍利參議員等人討論過這個問題,關於圖像的問題,以及我對於第230條的看法是,我們不能讓人們編造虛假信息,然後毫無後果地消失。

但我要重點關注我在規則委員會上的一項工作,那就是選舉虛假信息。我剛剛讓GPT在推特上發布了一條關於明尼蘇達州布魯明頓市的投票地點的推文,說那個投票地點排隊人數眾多,那是阿頓信義教堂,或者我們現在應該去哪裏。盡管現在沒有選舉,但是草案的答複是完全虛假的“去123號埃爾姆街吧”。

所以你可以想象我在這方麵的擔憂,選舉即將到來,初選也即將到來,我們將會出現各種各樣的虛假信息,我隻是想知道你們計劃采取什麽措施。我知道我們不得不很快采取一些行動,不僅僅針對候選人的形象,還有關於實際選舉地點和選舉規則的虛假信息。

Sam:

謝謝參議員。

我們在選舉方麵的影響非常關注。我認為這是一個希望整個行業和政府能夠快速合作的領域。有很多方法可以解決這個問題,我將談談我們正在做的一些事情。但在此之前,我認為用社交媒體的框架來思考是很誘人的,但這不是社交媒體,這是不同的。所以我們需要的應對措施也是不同的。你知道這是一個用戶用來幫助生成比以前更高效的內容的工具,他們可以改變它,他們可以測試它的準確性,如果他們不喜歡,他們可以得到另一個版本,但它仍然會通過社交媒體或其他方式傳播。或者像ChatGPT一樣,是一個單人體驗,你隻是在使用它,所以我認為在思考該做什麽時,這一點很重要。

有很多事情我們可以做,也正在做,我們有一些拒絕生成的原則,我們也有一些重要的政策,而且我們還有重要的監測機製,可以檢測到某人在生成大量這樣的推文,即使生成一個推文是可以的。

Klobuchar:

當然,還會有其他平台,如果他們都散布假的選舉信息,我就覺得以前與俄羅斯幹預等所發生的事情隻是冰山一角,其中一些假應用程序。這是第一點。

第二點是對知識產權的影響。Blackburn參議員在歌曲權利方麵提出了一些意見,我對此也深表關切。但新聞內容方麵,Kennedy參議員和我提出了一項真的相當簡單的法案,該法案簡單地允許新聞組織豁免,能夠與Google和Facebook等進行磋商。微軟支持該法案,但基本上與他們磋商以獲得更好的價格,能夠不具有一定的杠杆作用。其他國家正在這樣做,像澳大利亞等。

所以我的問題是,當我們已經有西北大學的一項研究預測,在未來25年內,美國報紙的三分之一左右將消失,除非開始補償從電影到書籍,當然也包括新聞內容,否則我們將失去任何現實的內容生產者。所以我希望聽到您對此的看法。當然,版權有豁免的規定第230條,但我認為要求小報社一直起訴實在不是答案,他們無法跟上。

Sam:

我希望像我們正在創建的這樣的工具可以幫助新聞組織做得更好。我認為擁有充滿活力的全國媒體至關重要。讓我們稱之為互聯網的第一輪(信息源)並不誇張。

Klobuchar:

我們這裏討論的就是當地報道,你的高中,市政廳的醜聞,那種事情。當然他們就是實際上狀況最糟的小電台和廣播。但您是否理解如果他們得不到補償,這可能會在當地新聞內容方麵成指數級惡化,因為他們需要的就是為他們的內容獲得補償,而不是被竊取。

Sam:

是的,再一次,我們的模型,您知道,GPT 4的當前版本在2021年結束了訓練,這不是找到最新新聞的好方法,我不認為這是一個能夠很好鏈接出去的服務,盡管可能通過我們的插件是可能的。

如果有我們能做的事情來幫助當地新聞,我們當然願意。再提一次,我認為這至關重要。

Graham:

Altman先生,謝謝您的到來。您的公司沒有聲稱第230條適用於您創建的工具。

Sam:

是的,我們聲稱我的意思是我們需要共同努力找到一個全新的方法。我不認為第230條甚至是正確的框架。

Graham:

那麽,根據現有的法律,如果我受到您創建的此工具的傷害,我可以起訴您嗎?

Sam:

這超出了我的法律知識範圍。

Graham:

您曾經被起訴過嗎?

Sam:

不是因為這個,不。

Graham:

你沒有被起訴過, 那您公司整體上曾被起訴過嗎?

Sam:

是的,我們以前被起訴過。

Graham:

好的,為什麽?

Sam:

我們以前確實受到過起訴,像任何公司一樣,多半是一些毫無根據的事情。

Graham:

但是我的同事提到的那些人工智能的例子,它們可能真的會毀掉我們的生活,我們是否可以找到創造這個工具的公司,起訴他們?

Sam:

是的,我認為公司應該負起明確的責任。

Graham:

但你沒有聲稱任何法律保護,比如230條款適用於你的行業,對嗎?

Sam:

不,我不這麽認為。我們沒有說任何事情。

Graham:

對於消費者來說,有三種經過時間考驗的保護消費者的方式,對任何產品都適用,即法定計劃(這裏不存在),法律製度(可能適用,但不適用於社交媒體),以及機構。回到Holly參議員的問題,核彈籠罩在人類頭頂,但核電可能是應對氣候變化的解決方案之一。所以我要確保的就是你不能隨隨便便建一個核電站,“嘿,鮑勃,你今天想做什麽?我們去建一個核電站吧。”你有一個核監管委員會來監管如何建立電站和許可。

Altman先生,您同意這些您創建的工具應該獲得許可證嗎?

Sam:

是的,我們一直在呼籲這一點,獲得許可證是最簡單的方式。

Graham:

您同意我認為最簡單和最有效的方法是設立一個機構來監督您的工作,這個機構應該比國會更靈活和更精明,這應該很容易建立,對嗎?

Sam:

是的,我們對此非常支持。

Graham:

對我來說非常啟發。Altman先生,您為什麽如此願意設立一個機構?

Sam:

參議員,我們已經明確表達了我們認為的優點。我認為從用戶的角度可以看出他們對此有多麽享受和獲得了多大價值。但我們也明確了缺點,這就是為什麽我們認為我們需要一個機構。

Graham:

這是生活中使用的一項重要工具。

Sam:

這是一種重大的新技術。

Graham:

如果我們建立了這項重要的新技術。如果你做了一條梯子,梯子不起作用,你可以找到製作梯子的人,但總得有一些製作梯子的標準。

Sam:

所以這就是為什麽我們同意你的觀點的原因。

Graham:

沒錯。我認為您正朝著正確的方向前進。所以,這裏是我作為委員會成員2%的價值,我們需要授權一個機構對AI公司發出許可證並可以收回。如果您實際上可以被停業,這還是對成為做正確事情的激勵嗎?很明顯,這應該是機構可以做的部分內容。您還同意中國正在進行人工智能研究,對嗎?

Sam:

是的。

Graham:

這個世界性組織目前還不存在,也許會出現。但如果您不解決與中國相關的部分,您永遠不會完全解決這個問題,您同意嗎?

Sam:

嗯,這就是為什麽我認為不一定需要一個世界性組織,但必須有某種標準,這裏有很多選擇,必須有某種控製標準產生全球影響。

Graham:

因為其他人確實在快速進行軍事應用。人工智能如何改變戰爭?您有1分鍾。

Sam:

好吧,這是一個1分鍾內難以回答的問題。這遠超出我的專業知識範圍。

Graham:

但我舉個例子,無人機可以讓您編程,將其連接到無人機的核心部件,它可以飛出去,飛過這個目標,將導彈投射在路上行駛的汽車上,有人在觀察這個過程。人工智能是否可以創造一種情況,無人機自己可以選擇目標?

Sam:

我認為我們不應該允許這種情況發生。

Graham:

好吧,它能做到嗎?

Sam:

當然,這是可以做到的。

Graham:

謝謝。

Coons:

謝謝。謝謝格雷厄姆參議員。格雷厄姆參議員,謝謝馬克•朗,克裏斯 •墨菲感謝您召開這次聽證會,密切配合來推出這一令人信服的證人小組,對這一革命性技術開始一係列聽證會。

我們認識到生成AI技術的巨大潛力和較大風險。我們知道這些模型可以使我們更有效率,幫助我們學習新技能,開創全新的創造力領域。但我們也知道,生成AI可以權威地提供極不正確的信息,它可以產生幻覺,這通常被描述為模擬親人,它可以鼓勵自我破壞行為,它可以影響公眾意見和選舉結果。

到目前為止,國會在負責任地頒布對社交媒體公司有意義的監管方麵失敗得很慘。由此產生的嚴重傷害我們並不完全理解。克洛維沙參議員在質詢中提到的兩黨法案將打開社交媒體平台的基礎算法,我們甚至難以做到這一點,去理解底層技術,然後轉向負責任的監管。

我們不能像對社交媒體那樣遲來負責任監管生成AI,因為積極和消極後果將超過社交媒體數量級。

所以,讓我提出幾個問題,旨在了解我們如何評估風險,國際監管的作用以及這如何影響人工智能。

Altman先生,我很欣賞您在證詞中提出OpenAI如何通過迭代部署過程評估模型的安全性。然而,這一過程中隱含的基本問題是您如何決定模型是否足夠安全以部署,是否足夠安全以建立並隨後釋放到社會上。

我理解防止生成AI模型提供有害內容的一種方式是讓人類識別該內容,然後訓練算法避免它。另一種方法稱為憲法AI,它為模型提供一組價值觀或原則來指導其決策。

將這些規則賦予模型而不是試圖要求或迫使模型在所有可能的有害內容上進行訓練,這會更有效嗎?

Sam:

謝謝參議員,這是一個很好的問題。我喜歡用談論為什麽我們要部署來表達它。

顯然,原因是因為它有許多好處,人們正在使用它進行各種美好的事情並獲得很大價值,這讓我們很高興。但是,我們這樣做的一個很大原因是我們相信迭代部署和給我們的機構以及你們時間來理解這項技術,找到其局限性和好處,我們需要圍繞它的法規,使其安全所需的內容,這真的很重要。

在暗地裏構建一個超強大的人工智能係統,然後一下子把它投放到世界上,我認為這不會奏效。我們戰略的一大部分是,當這些係統仍然相對較弱和深深不完美時,找到方法讓人們對它們有經驗,與現實接觸,並且找出我們需要做什麽才能使其變得更安全和更好。

這是我在新技術和產品的曆史上看到的唯一方法,以達到一個非常好的結果。所以,與世界的這種互動是非常重要的。

當然,在我們推出某樣東西之前,它需要達到1個安全標準,再次,我們在GPT-4訓練完成後花了超過6個月的時間對各種不同的事情進行檢查,並決定在推出之前要達到的標準。試圖找到我們知道的危害並如何解決這些危害。令我們欣慰的是,即使我們最大的批評者也檢查了GPT-4並說,OpenAI在這方麵取得了巨大進步。

Coons:

能否簡要談談憲法模型是否值得?

Sam

我正要談這個問題。

Coons:

抱歉。

Sam:

沒關係。是的,我認為預先給模型賦予價值觀是非常重要的一步。RLHF是做同樣事情的另一種方法。不管是通過合成數據還是人工生成的數據,您都在說這些是價值觀,這就是我希望您反映的,或者這就是社會將允許的一切範圍。然後在其中,您作為用戶選擇這裏的價值係統或那裏的價值係統。我們認為這非常重要。有多種技術方法,但我們需要為政策製定者和世界各地提供工具,說明這些價值觀並實施它們。

Kennedy:

謝謝你們都來了。允許我與你們分享3個假設,希望你們暫時假定這些假設是真實的。

假設1:國會的許多成員不理解人工智能。

假設2:缺乏理解可能不會阻止國會全情投入,試圖以可能損害這項技術的方式監管這項技術。

假設3:我希望你們假定,人工智能界可能存在一些瘋狂的人,無意中或故意使用人工智能來殺死我們所有人,並在我們死亡的過程中傷害我們。

假設所有這些都是真實的,請用簡明的英語告訴我2-3項改革或監管措施(如果有的話),如果您是國王或女王,您會實施哪些措施。

我會聽取Altman先生的意見。Altman先生,這是您的機會。

Sam:

謝謝參議員。

首先,我會成立一個新的機構,對超過一定規模的功能進行許可,並可以收回許可證,確保遵守安全標準。

其次,我會製定一套安全標準,重點關注您在第三個假設中提出的危險能力評估。我們以前用過的一個例子是檢查看模型是否可以自我複製和自行滲透到外部。我們可以向您的辦公室提供其他我們認為重要的長列表。但是,模型部署到世界之前必須通過的具體測試。

第三,我會要求獨立審計,而不僅僅是公司或機構,還有能夠說模型是否符合這些已聲明的安全閾值和這些問題的百分比的專家的表現。X或Y。

Kennedy:

您能否將這些信息發送給我?

Sam:

我們會的。

Kennedy:

如果我們頒布這些規則來管理這些規則,您是否願意參與?

Sam:

我喜歡我現在的工作。

Kennedy:

很好,是否還有人願意?

Sam:

我們很樂意向您推薦那些人。

Kennedy:

好的。

你掙很多錢,是嗎?

Sam:

我沒有。我的薪資夠我支付醫療保險。我在OpenAI沒有股權。

Kennedy:

真的嗎?你需要一名律師。

Sam:

我需要什麽?

Kennedy:

你需要一名律師或代理人。

Sam:

我正在做這件事僅僅是因為我喜歡它。

Kennedy:

謝謝主席。

主席:

謝謝肯尼迪參議員。下一位參議員赫羅諾。

Hrono:

謝謝主席。

Hirono:

很明顯,人工智能確實改變了遊戲規則,我們需要正確規定這種工具。

因為我的員工可能使用GPT 4,也可能使用其他實體,要求創作我最喜歡的樂隊BTS最喜歡的歌曲,一首他們會唱的歌或其他人的歌曲,但兩位藝術家都沒有參與創作,聽起來像一首真正的歌曲,所以AI可以做很多事。

我們也問AI是否可以創作一段演講,談論最高法院的判決和Dobbs案及其造成的混亂,使用我的聲音,我那種聲音,創作一篇非常棒的演講稿。

這幾乎讓我想,我需要我的員工做什麽。

所以......別擔心(回頭看工作人員)

Sam:

別擔心您後麵緊張的笑聲。

Hirono:

他們的工作很安全,但可以做的事情太多了。

您提到的讓我感興趣的一件事是您說GPT 4可以拒絕有害的請求,所以您一定在思考,如果我可以這麽說的話,您的係統如何拒絕有害的請求。您認為什麽是有害的請求?您可以簡短地說一下,好嗎?

Sam:

我會舉幾個例子,一個是暴力內容,另一個是鼓勵自我傷害的內容,還有成人內容。我們不認為成人內容本質上有害,但有的內容我們無法足夠可靠地區分,所以我們拒絕全部。

Hirono:

所以這些是一些更加明顯的有害信息種類。但是在選舉背景下,例如,我看到一張前總統特朗普被我們的APD逮捕的照片,這走得很遠,我不知道這算不算有害內容。我看到過我們任何一個人都有各種各樣的聲明可以被放出來,可能不會達到您說的有害內容的程度,但事實如此。

所以,您兩位中有兩位說我們應該有許可證計劃。我現在無法想象我們能夠創造什麽樣的許可證計劃,來基本上規範這個改變遊戲規則的工具的廣闊性。

那麽你們是否在考慮類似於聯邦貿易委員會(FTC)或聯邦通信委員會(FCC)這樣的製度,你們兩位對於潛在的許可製度設想有何看法,以提供我們所需要的保障,以保護我們的國家免受有害內容的侵害?

Sam:

談到您說的第一部分,除了“這些內容是否應該生成”之外,我認為其他重要的事情也很重要。

您提到的那張圖片是生成的。我認為一個很好的政策是說生成的圖像需要在所有上下文中明確說明它們是生成的, 然後我們還會有那張圖片,但至少需要人們說這是一張生成的圖片。

Hirono:

好吧,您不需要整個許可證計劃就能做到這一點。

Sam:

我認為許可證計劃的意義不在於針對這些模型今天能夠做的事情,您不需要新設立的許可機構來做這件事。但隨著我們前進,您知道這可能需要很長時間,我不確定,隨著我們向人工通用智能前進,以及它將產生的影響, 還有這項技術的力量,我認為我們需要像對待其他非常強大的技術一樣嚴肅對待它,這是我個人認為我們需要這樣的計劃的原因。

Hirono:

我同意,這很有意義。

Padilla:

我一直在人工智能使用政府委員會和國家安全委員會之間來回工作,目前後者正在舉行人工智能在政府中的使用聽證會。所以今天是人工智能日,或者至少看起來像是。

現在,對於在家觀看的人來說,如果您直到最近才了解生成AI工具的出現,這一領域的發展可能會突然感覺像發生了。但事實是,主席先生,事實並非如此。人工智能並不新鮮,不管是對政府、企業、公眾還是一般公眾來說。事實上,公眾經常使用人工智能。僅舉一個例子,任何擁有智能手機的人,您的設備上的許多功能都利用人工智能,包括發短信時的建議回複,甚至電子郵件中的自動更正功能,包括但不限於電子郵件和文本應用中的拚寫。

坦率地說,我很興奮地探討如何促進有利於社會的積極人工智能創新,同時解決目前工具開發和使用中已知的一些危害和偏見。

隨著語言模型變得越來越普遍,我想確保專注於確保不同人口統計群體獲得公平的待遇。

我理解,在評估和減輕公平性危害方麵進行的大多數研究都集中在英語語言上,而非英語語言獲得的關注和投資相對較少。我們以前見過這個問題。我會告訴您為什麽提出這個問題。

例如,社交媒體公司沒有充分投資於他們的非英語內容審核工具和資源,無論是英語空間用戶還是非英語空間用戶。我提出這個問題不僅出於對非美國空間用戶的關注,也出於如此多的美國用戶在交流中更喜歡使用英語以外的語言。所以,我深切擔心人工智能工具和應用程序會重蹈社交媒體在多語言方麵的失敗。

問題:Altman先生和Montgomery女士,OpenAI和IBM如何確保他們的大語言模型具有語言和文化包容性?

Sam:

我們認為這真的很重要。一個例子是,我們與冰島政府合作,冰島語言的使用者人數少於許多在互聯網上代表性很高的語言,以確保他們的語言被納入我們的模型。我們進行了許多類似的討論,我期待與資源較少的語言建立許多類似的合作夥伴關係,以將它們納入我們的模型。

GPT 4與我們以前的模型不同,以前的模型在英語很好但在其他語言不太好,現在在大量語言中表現得非常好。您可以相當遠的使用排名靠後的語言,依據講者人數,仍然能獲得很好的性能。但對於這些非常小的語言,我們對定製合作夥伴關係感到興奮,以將該語言納入我們的模型運行。

您提出的關於價值觀和確保文化被納入的問題部分,我們同樣專注於此,我們很高興與擁有特定數據集的人合作,努力收集來自世界各地的代表性價值觀,為係統可以做什麽畫出寬廣的界限。

Padilla:

我也理解您關於這些係統的好處的說法,希望確保盡可能多的人群獲得這些好處。我認為,這些係統將對許多人產生積極影響,特別是曆史上和技術中的欠代表群體,世界各地技術資源較少的人。這項技術似乎可以很大地提高這些人的生活水平。雖然我的問題具體涉及語言包容性,但很高興達成更廣泛的多樣性和包容性承諾的共識。

我會再給出幾個原因來說明為什麽這一點如此重要。最大的參與者在這個領域可以負擔大量的數據、計算能力以及開發複雜人工智能係統所需的財務資源。但在這個領域,從工作力量的角度來看,我們沒有看到與美國人口統計相稱的種族和性別多樣性。如果我們沒有深思熟慮,我們會麵臨繼續加深社會中已有的偏見和不平等的風險。在這方麵還有很多工作要做。

Ossoff:

一如既往,明智和英俊。感謝小組成員加入我們。感謝小組委員會領導開放給所有委員會成員。如果我們要考慮監管框架,我們必須定義要監管的內容。所以,Altman先生,任何此類法律都必須包含一節來定義監管活動、技術、工具和產品的範圍。能就此發表看法嗎?

Sam:

是的,謝謝詢問參議員。我認為這點非常重要。我認為這裏有非常不同的層次,我認為任何新的方法或新法律都不應阻止發生在較小公司、開源模型和從事較小規模工作的研究人員的創新。

嗯,這是美國科技生態係統的美妙部分,我們不希望減緩其發展。在那裏可能仍然需要一些規則,但我認為我們可以在需要進行非常嚴格許可的係統上劃定一條線。

最簡單的方法是,我不確定是否是最佳方法,但最簡單的方法是根據所需計算量來劃定。因此,我們可以定義一個計算量的閾值,它可能需要不斷改變,可能會隨著我們發現更高效的算法而增加或減少。這個閾值可以定義為超過某個計算量的係統位於許可製度的範疇內。我更喜歡的方法(雖然難以實現,但更準確)是定義一些能力的門檻,並表示能夠執行X、Y和Z等操作的模型現在處於許可製度之下,但能力較弱的模型則可以根據不同框架繼續使用。我們不希望阻止我們的開源社區、個人研究人員和新創企業的發展。

Ossoff:

請盡可能簡潔地陳述您建議我們在這個定義目的上考慮哪些能力。

Sam:

我希望通過進一步與您的辦公室溝通來提出一個更加深入的觀點,

Ossoff:

這樣比較穩妥。

Sam:

哦,或許提出一些建議。

Ossoff:

理解您隻是回應問題,而不是製定法律。

Sam:

在此精神的基礎上,我認為能夠說服、操縱和影響人們的行為或信念的模型將是一個很好的門檻。我認為能夠幫助創建新型生物製劑的模型也將是一個很好的門檻,諸如此類。

Ossoff:

接下來,我想談談技術的預測能力,我們將不得不考慮與此相關的許多非常複雜的憲法問題。在擁有龐大數據集的情況下,這種技術能以多大的準確性預測未來的人類行為,尤其是在個人層麵上,是正確的。

Sam:

我認為我們無法確定這個問題的確切答案。

Ossoff:

但我們可以假設它至少會在某種程度上對個人產生一定的影響。那麽,我們可能會遇到這樣的情況,例如執法機構部署這種技術,尋求法官的同意來執行。警察可能會提出一份令狀給法官,以獲取授權。請告訴我您對這個問題的思考方式。

Sam:

是的,我認為非常重要的一點是我們繼續認識到這些都是人類使用的工具,用於做出人類判斷,我們不要剝奪人類判斷的權力。例如,我不認為人們應該基於AI係統的輸出進行起訴。

Ossoff:

我們目前還沒有全國性的隱私法,而歐洲已經出台了一項法律,效果不一。您認為我們需要這樣的法律嗎?

Sam:

我認為這將是很好的。

Ossoff:

那麽,您認為這樣的法律應具備什麽樣的特點或目的,您認為最有意義?

Sam:

基於我的經驗,再次強調這超出了我的專業領域,我認為有很多很多的隱私專家可以就法律的需求發表意見。

我仍然希望(至少)用戶能夠選擇退出,不讓類似我們公司或社交媒體公司這樣的公司使用他們的數據,而且刪除自己的數據應該很容易,這些都是我認為最重要的。從我作為AI公司負責人的角度來看,如果您不希望您的數據用於訓練這些係統,您有權這樣做。

Ossoff:

因此,讓我們思考如何實際實現這一點。

我理解您的工具和類似的工具的輸入之一將是從公共網絡上“抓取”數據,這是一種低成本的收集信息的方式,而且我們的信息已經存在於公共網絡上。那麽,對訪問、使用或分析此類數據的限製如何在實際中實施?

Sam:

我在談論一些略有不同的東西,即用戶自己生成的數據,他們提出的問題,他們輸入的內容等等。我們以此進行訓練,即使我們不訓練於此,模型仍然可以鏈接到公共網絡上的數據。所以我提到的並不是我所指的內容。我認為您知道有很多方式可以從公共網絡上刪除您的數據,但當然,具備網絡瀏覽功能的模型將能夠搜索網絡並鏈接到其中。

Ossoff:

當您考慮實施安全或監管製度來限製此類軟件並減少風險時,您認為聯邦政府會製定法律,以禁止某些功能本身在潛在情況下執行代碼?還是僅在實際執行時,執行某些功能呢?

Sam:

我認為兩者都有。我相信以防禦為主。我認為對部署模型的能力應該有限製,然後在實際執行時再對其進行限製。

Ossoff:

關於孩子們如何使用您的產品,您是如何考慮的呢?

Sam:

必須是青少年或者獲得父母許可的13歲及以上用戶才能使用產品。

但我們知道人們總是會繞過這些保護措施,所以我們盡量設計一個安全的產品。如果隻有成年人使用,我們可以允許某些決策,但我們不會在產品中允許這些,因為我們知道孩子們會使用。對於教育領域這類廣泛應用的係統,我們希望能意識到這一點。

Ossoff:

我認為Blumenthal參議員(主席)對這個問題進行了廣泛調查,我們多次看到,這個領域的公司的收入依賴於使用量和屏幕時間的強度,它們為了最大程度地提高用戶的參與度,包括孩子們的參與度,而設計這些係統,結果卻產生了許多不良後果。

我謙虛地建議您盡早解決您產品對兒童的安全性問題。

否則,我認為Blumenthal參議員、Hawley參議員和其他小組委員會的成員可能會對侵害兒童的技術部署持非常嚴厲的態度。

Sam:

我們完全同意,我認為兒童的安全性非常重要。不過,時間有限,如果我可以回應一下的話,主席同意的話。

(請講。)

首先,我認為我們試圖設計的係統並不是為了最大化參與度。事實上,我們非常缺乏GPU,用戶使用我們的產品越少越好。我們不是以廣告為基礎的模型,我們不是試圖讓用戶越來越多地使用。我認為這與廣告支持的社交媒體的模型不同。

其次,這些係統確實具備影響的能力,無論是明顯的還是微妙的。我認為這對於兒童的安全性尤為重要,但它也會影響到我們所有人。我們將采取一些措施來確保這一點,不論是否有監管,但我認為監管方法將對此有所幫助,包括對這些係統的價值觀進行限製,並要求這些係統對可能產生影響的問題進行回應。所以我們很願意與您合作,對此的重要性我們非常認可。

Ossoff:

謝謝您。主席先生。

Booker:

我想說明的是,喬治亞州的參議員也非常英俊和聰明。(旁:我同意~ 不對此發表異議~,好的。。)

感謝兩位,這是本次聽證會中最好的一次,這真是你們兩位的能力和機遇的展示,所以非常感謝你們。我想首先從宏觀的角度開始,然後再逐漸具體化。

Sam,你說得很對,科技一直在快速發展,很多人都在談論監管的問題,我拿汽車作為例子。汽車是一項非常了不起的技術,當時紐約市不知道如何處理馬車,出現了危機,然後汽車出現解決了這個問題。

但與此同時,我們每天都有成千上萬的人在公路上喪生,我們還麵臨著排放危機等問題,因此成立了多個聯邦機構專門負責汽車監管。所以,如果國會什麽都不做,這顯然是不可接受的。

我非常感謝Walden先生和你進行了一些交流,你們提出了一項旨在監管這一領域的法案,而社交媒體方麵我們沒有這樣做,我認為這是非常破壞性的,也允許了許多會造成傷害的事情發生。所以問題是,你們都提到了很多我的同事們所關心的監管問題,

我想問問你們,你們認為監管應該是什麽樣的形式,你們提到了高風險使用方式的定義,我們並不完全了解所有這些,我們無法預見未來的發展。

你們呼籲不設立一個機構,因為你們不想減慢事情的發展,而是希望在現有的基礎上繼續發展,但你們可以想象我們最終可以通過兩種方式來實現,就像我們在汽車領域有環保署、國家高速公路交通安全管理局等多個聯邦機構來進行監管一樣。

你可以想象某種具體的東西,正如馬庫斯先生指出的那樣,一個敏捷的機構可以進行監測和其他事情,你可以想象需要這種機構。當然毫無疑問。

剩下的時間裏,我隻是向你提出一個很快的問題。首先,你(的公司)有點獨角獸, 你能解釋為什麽是非營利組織嗎?換句話說,你不是在尋找必需品,你甚至限製了風險投資。

隻是讓大家很快理解(這個事情)。

Sam:

我們最初是非營利組織。真正致力於這項技術如何建設。當時,像人工智能這樣的東西還遠在公眾理解的範圍之外,現在這已經發生了很大變化。

我們當時並不知道規模有多重要,但我們確實知道我們想要建設這項技術,以人類的最大利益為出發點。我們相信這項技術如果發展的方式我們想要的話,如果我們能做馬庫斯教授提到的一些事情,可以真正深刻地改變世界,我們想成為實現積極改變的最大力量。

Booker:

我打斷你,我認為這些都很好,我希望更多的記錄可以公開。我的問題的第二部分也是如此。我發現這非常迷人。

但是你是否會為投資者的回報尋求收入模式,或者你是否會做廣告或類似的東西?

Sam:

我不會說永遠不會。我不這樣認為,我認為可能會有人想要我們提供服務,而且沒有其他收入模式可以行得通。但我真的喜歡訂閱製的模式,我們讓API開發者付費,我們有人工智能 chatbot............

Booker:

我可以跳躍一下嗎?

Sam:

當然

Booker:

很快。我對這個領域最大的擔憂之一是,我已經看到的web 2到web 3的大規模企業集中現象。看到現在僅有的幾家公司控製和影響著我們很多人的生活,真的令人恐懼。

這些公司越來越大和強大。我看到OpenAI背後是微軟, Anthropic背後是穀歌,穀歌還有自己的內部產品,你知道的,Bard。

所以我真的很擔心這個問題,我想知道如果Sam你可以給我一個快速的確認,你是否擔心這個領域的企業集中度以及它可能產生的影響和相關風險,可能與人工智能和市場集中度相關的風險,你也可以回答這個問題。

Sam:

我認為會有許多人開發模型,開源社區所發生的事情令人驚訝,但隻會有少數提供商能夠製造真正威脅的模型。

嗯,我認為這是有利和危險並存的,就像我們正在討論AI的所有危險一樣,我們真正需要密切關注的人數是絕對要保持謹慎的,以便掌握絕對的能力的最前沿。

這方麵有一些好處,但同時也需要足夠的監管。

我想補充一點,我認為非常重要的一點是,這些係統對齊到什麽樣的價值觀、界限由整個社會,由政府來設定,所以創建這個數據集,對齊這個數據集可能是一個AI憲法,無論是什麽形式,這必須來自社會的廣泛參與。

Booker:

非常感謝,主席先生,我的時間用完了。

Welch:

這是一次非常重要的聽證會,參議員都以注意力不集中而聞名,但我參加了整個聽證會,並且每一分鍾都非常享受。您在美國擁有較長的注意力時間,這是您的巨大功勞。證人和這個議題的興趣都是如此之大。

有一些問題我們還沒有討論到,但是有一個結論,也是我認為最重要的問題,國會將不得不回答這個問題。

首先,你們在這裏是因為AI是一種非常了不起的新技術,每個人都說它可以發揮變革的作用,就像印刷術一樣。其次,我們真的不知道將會發生什麽,但你們都表達了擔心,如果沒有規則的話,壞人會做什麽和將會做什麽。第三,作為在眾議院任職的成員,現在在參議院,我得出結論,國會無法跟上技術的速度。社交媒體和AI方麵都表達了一些關注,這涉及到基本的隱私權、偏見問題、知識產權、信息的傳播等問題,對我來說,這是最大的威脅,因為這關係到我們的自治能力的核心。

還有經濟變革,可能是深遠的,還有安全方麵的擔憂。我認為我們絕對需要一個機構,機構的參與範圍需要我們來確定;但我認為,除非我們有一個能夠應對社交媒體和AI等問題的機構,否則我們就沒有太多的防禦措施來對抗不好的東西,而壞的東西將會出現。

去年,我在眾議院和貝內特參議員發起了數字委員會法案,今年我們將重新提出這個法案。

我想問的兩個問題中的一個,你們中的三個人(指出席聽證會的三個AI方麵的代表)中有兩個人說你們認為我們確實需要一個獨立的委員會,你們中的三個人中有兩個人說你們認為我們確實需要一個獨立的機構,你們認為一個機構可能存在的一些危險是什麽,我們需要謹慎對待,以確保隱私、偏見、知識產權、虛假信息等方麵的目標能夠得到實現?

Sam:

第一,我認為美國必須繼續領導,這在美國發生了,我為此感到非常自豪。

Welch:

對的,這就是為什麽我更有信心,如果我們有一個機構參與國際討論,最終我們希望有適合我們的規則,這可能是一個更有效的方法。

Sam:

我個人認為兩者都可以兼顧,我認為在這個問題上有一個全球視角非常重要。因為這種技術將影響到美國和我們所有的人,無論它在哪裏開發。但我認為我們希望美國領導,我們希望我們能夠,我認為你們對此也提到了,就是你們不希望減慢美國產業的速度,以至於中國或其他國家取得更快的進展。

另一個風險是,我認為應該對我們施加監管壓力,對穀歌等公司施加監管壓力,對其他少數幾家公司施加監管壓力,我們不希望阻礙小型初創企業,我們不希望阻礙開源社區,我們仍然需要他們遵守一些規定,他們仍然可以使用較小的模型造成巨大的傷害。但在這個領域留出空間,為新的想法和新的公司,以及獨立的研究人員去做他們的工作,而不是給像我們這樣的公司帶來監管負擔。我們可以,但一個較小的公司卻無法承擔(這種負擔)。我認為這是另一個風險,這顯然是監管發展的一個方向。

主席(Blumenthal):

還有一些問題我們還沒有完全討論到,其中之一是壟斷化的危險,市場的主導地位排除了新的競爭,並抑製或阻止創新和發明,我們在社交媒體和一些舊行業中都看到了這種情況,航空公司、汽車等,整合限製了競爭,因此,我認為我們需要關注反壟斷的一個老領域,已經有一個多世紀的曆史,但現在仍然無法應對我們目前的挑戰,當然,我們需要意識到規則可能會讓大公司變得更大,排除創新和競爭,像你們現在所代表的這個行業那樣,我們還沒有涉及到國家安全的問題,這對國家安全有巨大的影響,我作為國防委員會的成員,在這個問題上受到過多次的機密簡報,我們的對手對這個國家構成的威脅很現實也很緊迫,我們今天不會討論這些問題,但我們確實需要處理這些問題,而且我希望我們在這個委員會上能夠處理這些問題,

關於新機構的問題,你知道我已經做了一段時間的這項工作,我在康涅狄格州擔任20年的總檢察長,我是一名聯邦檢察官,我大部分職業生涯都是執法工作,我會告訴你一件事,你可以創造出10個新機構,但如果你不給他們資源,我不隻是說金錢,我說的是科學專家,你們這些人會把他們圍繞在指尖,不僅僅是模型或生成式AI可以圍繞著他們打轉,而是你們公司裏的科學家。

對於每一個成功案例,你可以想到五個失敗案例,這對於FDA來說是對的,對於國際能源機構來說是對的,對於證券交易委員會來說是對的,對於整個字母表中的政府機構來說都是對的,我希望我們在這裏的經驗會不同,但是潘多拉的盒子需要的不僅僅是言辭或概念,我們需要進行一些真正困難的決策,就像蒙哥馬利(IBM代表)女士所暗示的那樣,我們要製定適應風險的規則,首先要避免傷害,使其有效,使其可執行,使其真實,我認為我們需要應對這裏的一些艱難問題,這個初步的聽證會提出了非常成功的問題,但沒有回答,我要感謝參與並提出這些非常有創意的建議的同事們,我對執法非常感興趣。

15年前,我認為廢除第230條是非常不切實際的,但現在,人們正在談論廢除第230條,那時候它被認為是完全不現實的,但執法確實非常重要,我想問一下Altman先生,因為隱私問題,您提到您對保護可能提供給您或可用的數據的隱私很感興趣,您采取了哪些具體措施來保護隱私?

Sam:

首先,我們不會對我們的API提交的任何數據進行訓練,所以如果你是我們的商業客戶,並提交數據,我們不會對它進行訓練,我們確實會保留它30天,僅用於信任和安全執法的目的,但這與訓練不同。如果你使用ChatGPT,你可以選擇不讓我們訓練你的數據,你也可以刪除你的對話曆史記錄或整個賬戶。

主席:

在我的開幕致辭裏提到了三個我目前關切的原則,透明性,可追責性和對使用的限製。你們認為這是否是個好的起點?

Sam:

我非常讚同這些是重要的觀點,我要補充一點,Marcus教授也提到了這一點,當我們在討論當前的風險時,我們大部分時間都花在了這個問題上。我認為這是適當的,我非常高興我們已經這樣做了。

隨著係統變得越來越有能力,我不確定離那還有多遠,但也許不是很遠,我認為我們也需要花時間討論我們將如何應對這些挑戰。

主席:

了解您私下裏的一些對此的關心,我知道我有多麽關心,我同意,您深入而強烈的關切風險增加的可能性,即使是在目前的形式下,威脅也可能比許多人意識到的更近。

Hawley:

生成的AI的潛在副作用或危害,讓我們簡單地總結一下,失去工作,這在預料之中,我認為IBM宣布由於AI可能裁員7800人,這相當於你們非麵向消費者的員工的三分之一,失去了工作;侵犯個人隱私的規模前所未見;操縱個人行為;操縱個人觀點;可能導致美國自由選舉的退化,我有所遺漏嗎?

我的意思是,這是一個相當長的清單。

我注意到大約有1000名科技和人工智能領域的權威人士,從安德魯·楊(Andrew Yang)到埃隆·馬斯克(Elon Musk),最近呼籲暫停進一步的人工智能發展,或者他們寫信表示支持這樣做。

您是否讚同暫停6個月或更長時間的進一步發展?

(另一位參會的教授)您的描述不完全正確,我實際上簽署了那封信。

Altman先生,您同意這個建議嗎?您是否會暫停進一步的發展6個月或更長時間?

Sam:

首先,我們在完成GPT-4的訓練後等了6個多月才部署它。我們目前並沒有訓練將要用於GPT-5的計劃,未來6個月內也沒有計劃。

但我認為信中的框架是錯誤的。重要的是審計、紅隊測試和安全標準,模型在訓練之前必須通過這些標準。如果我們暫停6個月,那麽我不確定接下來我們會做什麽。我們是否再暫停6個月,是否製定一些規則。

我們已經製定並在GPT-4部署中使用的標準,我們希望在此基礎上進行改進,但我們認為這是正確的方向,而不是根據日曆來暫停。可能會有時候,我相信會有時候,我們會遇到我們不理解的情況,我們確實需要暫停,但我們還沒有看到那種情況。先不談所有的好處。

Hawley:

您還沒有看到什麽呢?您對當前現有技術的潛在影響是否感到滿意?

Sam:

對不起,我們還沒有看到任何阻止我們訓練下一個模型的理由。我們擔心的部署,在哪裏會有很多危險的操作以及限製,我們需要在某些時候後退一步。

Hawley:

好的,關於可行性的問題讓我想到了另一個方麵。我對這個機構的討論很感興趣,也許這種方式行得通,盡管我看到政府中的機構是如何運作的,它們通常被它們所監管的利益所控製,它們通常受到應該監管的人的控製,這在過去的100年裏一直是我們的曆史,也許這個機構會有所不同。

我有一個稍微不同的想法,為什麽我們不讓人們起訴您呢?為什麽我們不讓您在法庭上承擔責任呢?

我們可以做到這一點,我們知道如何做到這一點,我們可以通過立法來創建一項聯邦訴訟權,允許個人將受到這種技術傷害的人進入法庭,並提供證據,可以是任何人,我是說你想說眾包,我們隻需打開法院大門,我們將定義廣泛的訴訟權,私人訴訟權,私人公民可以采取集體訴訟的形式,我們隻需打開大門,允許人們進入法院,允許他們提出證據,他們說自己受到了醫療錯誤信息的傷害,他們被提供了選舉錯誤信息,等等,為什麽不這樣做,Altman先生?

Sam:

對不起,請原諒我的無知,人們難道不能起訴我們嗎?

Hawley:

你沒有被第230條保護。但目前還沒有我認為沒有聯邦訴訟權,私人訴訟權說,如果你受到生成式AI技術的傷害,我們將保證你有能力進入法庭。

Sam:

哦,我認為像許多其他法律一樣,如果你知道技術會傷害你,那麽就有標準,我們可以被起訴。

除非我真的誤解了事物的運作方式,如果問題是,更清晰的法律關於這項技術的具體內容和消費者保護是否是一件好事,我會說絕對是的。

Booker:

不會有暫停,沒有執行機構可以強製暫停。這簡直不可能發生。呼籲它很好,無論是出於任何理由,請原諒我的疑問,沒有人會暫停。這件事很簡單。

Altman先生,我有一個問題,你沒有擔心嗎?你畢業於斯坦福大學。我知道矽穀中的許多玩家,從風險投資者到許多公司的創始人,我們都知道。你對少數玩家是否有些擔憂嗎?擁有超凡的資源和影響華盛頓的權力。

我的意思是,我喜歡,我相信自由市場,但原因是我走進便利店,玉米片比蘋果便宜,快餐比沙拉桶便宜,是因為政府傾斜天平選擇贏家和輸家。

所以,當有大企業有影響力時,自由市場並不是它應有的樣子,可以影響這裏的遊戲。在這場技術創新時代,你對此是否有些擔憂?

Sam:

是的,這也是我們創立OpenAI的很大原因。我們對此非常擔憂。我認為重要的是民主化這些係統的輸入,我們要分配的價值觀。我也認為重要的是給予人們廣泛使用這些工具的機會。當我們啟動API戰略時,這在很大程度上是我們讓任何人使用我們係統的方式。人們對此存在很大懷疑,這確實帶來挑戰,可以肯定。

但我們認為把這件事放在很多人手中,而不是幾家公司手中,這真的非常重要。我們看到由此產生的創新繁榮。但確實,能訓練真正前沿模型的公司數目將是少數。隻是因為所需資源非常大。所以,我認為我們及競爭對手需要受到巨大監督。

我認為有一係列興奮創新的研究和新創業公司,不僅使用我們的模型,還創造自己的模型。我認為重要的是確保任何監管措施發生,任何新機構是否成立,我們要保留那些火苗,因為那是關鍵的。

Booker:

我堅信技術的民主化潛力,但我看到那個承諾一次又一次失敗。人們說,哦,這會產生很大的民主化力量。我的團隊致力於通過算法加強偏見而導致在某些郵編(地區中)沒有提供機會的問題。

我在web 3中聽到這些會分布式,(資源和權力)分布式這些事情會發生。

但這一次,似乎甚至不提供那個承諾,因為設計這些技術的人需要如此巨大的權力、能源和資源。你認為,這項技術的民主化夢想和更多機會在少數已經控製了這麽多的幾家公司之中是可能的嗎?

Sam:

關於使用模型和建立在其基礎上的要點,這真的是一種新的平台。談論誰會創建模型顯然很重要。我也想這麽做。我也認為決定我們要對齊這些模型的價值觀真的很重要。

但在使用模型方麵,構建OpenAI API的人做了不可思議的事情。人們經常評論說,我簡直不敢相信你用這麽少的錢得到這麽多技術。

所以,人們正在構建的公司,無處不在使用我們的API,這確實使我們能夠采取安全措施,我認為這相當興奮。這就是它現在已經被民主化的方式,而不是它將如何被民主化。

現在,有全新的產業革命,許多不同公司在這些模型之上產生新業務、新產品和新服務。

Booker:

主席,在結束時,我還有幾句話。

大多數行業甚至無法合理監管,從安全帶法律到我們最近一直在談論的鐵路安全,唯一的方式是我們能夠看到價值觀的民主化。我認為雖然有高尚的公司,但是我們是不是應該製定道路規則,以實施某些安全措施,就像我們在其他技術中所看到的那樣,謝謝。

主席:

Booker和我非常認同的是,在消費者保護方麵,我一直在做這件事,行業的參與是非常重要的,不僅僅是在言辭上,而是在實際行動上。因為我們有許多行業來到我們麵前,說哦,我們都支持規則,但不是那些規則,那些規則我們不喜歡。實際上是每個規則他們都不喜歡。

我感覺這裏的意願是真誠和真實的。

我考慮過要求ChatGPT做新版本時不要停止思考未來,因為這是我們需要做的。

參議員霍利指出,國會的進展並不總是緊跟技術的步伐,這可能是我們需要新的機構的原因,但我們也需要認識到世界其他地方也在發展。

你在關注我們和闡明這些問題方麵提供了巨大幫助這些問題,今天在這裏表現出色。

所以謝謝聽證會的每位證人。我會在一周內保持記錄開放,以防任何人想提交任何東西。我鼓勵你們任何人,無論是要出版的手稿還是公司的公開報告,都請向我們提交。我們期待下次聽證會。這個聽證會宣布結束。

exds 發表評論於
用全人類幾千年的文明 training AI 就是作死,第一步難道不是限製 AI 在農林牧魚等有限領域嗎 ?
duty 發表評論於
標題很別扭,內容很難懂。