著名“AI教父”從穀歌離職:我為發展AI而後悔

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)



AI教父辛頓

鳳凰網科技訊 《AI哨所》北京時間5月2日消息,有“AI教父”之稱的傑弗裏·辛頓(Geoffrey Hinton)周一宣布,他已經從穀歌公司離職。半個世紀以來,辛頓一直在培養ChatGPT等聊天機器人背後的核心技術。但是現在,他擔心AI會造成嚴重危害。

鳳凰網科技《AI哨所》了解到,辛頓是AI先鋒。2012年,辛頓博士和他在多倫多大學所帶的兩名研究生開發的技術,成為了AI係統的知識基礎。如今,科技行業的巨頭們認為,AI係統是它們未來發展的關鍵。

為發展AI而後悔

然而就在周一,他正式加入了越來越多的AI批評人士的行列。他們認為,這些公司積極開發基於生成式AI的產品,ChatGPT等熱門聊天機器人等被快速研發,這是在奔向危險。

辛頓說,他已經辭去了穀歌的工作,以便自己可以自由地談論AI的風險。他已經在穀歌工作了十多年,成為該領域最受尊敬的人物之一。辛頓表示,他現在對自己一生從事的工作感到有些後悔。

“我用平常的借口來安慰自己:就算我沒做,別人也會做的。”上周,辛頓在多倫多家中的餐廳接受了長篇采訪時稱。那裏距離他和學生取得AI突破的地方隻有幾步之遙。



辛頓博士

辛頓從AI開拓者到末日預言者的轉變,標誌著科技行業在這個幾十年來也許最重要的拐點上經曆了一個非凡時刻。業界領袖認為,新的AI係統可能與20世紀90年代初推出的網絡瀏覽器一樣重要,並可能引發從藥物研究到教育等領域的突破。

但是,令許多業內人士苦惱的是,他們擔心自己正在向野外釋放一些危險東西。生成式AI已經可以成為製造虛假信息的工具。很快,它可能會對就業構成威脅。科技行業最大的擔憂者表示,在未來的某個時候,它可能會對人類構成威脅。

辛頓對此表示,“很難想象你能如何阻止壞人利用它做壞事”。

自從OpenAI在3月份發布了最新版ChatGPT-4模型後,包括馬斯克在內的上千名科技領袖和高管簽署聯名信,呼籲暫停開發比ChatGPT-4更先進模型6個月時間,因為AI“對社會和人類構成了深刻風險”。幾天後,有40年曆史的學術組織人工智能促進協會的19位現任和前任領導人發表了他們自己的公開信,警告AI的風險。該組織包括微軟首席科學官埃裏克·霍維茨(Eric Horvitz)。微軟已將OpenAI的技術應用於一係列產品,包括必應搜索引擎。

辛頓沒有在這兩封信上簽名。他說,在辭職之前,他不想公開批評穀歌或其他公司。上個月,他通知公司他將辭職。周四,他與穀歌母公司Alphabet CEO桑達爾·皮查伊(Sundar Pichai)通了電話。他拒絕公開討論與皮查伊談話的細節。

穀歌首席科學家傑夫·迪恩(Jeff Dean)在一份聲明中表示:“我們仍然致力於對AI采取負責任的態度。我們在不斷學習了解新出現的風險的同時,也在大膽創新。”

AI危險更快到來

辛頓認為,隨著企業改進AI係統,它們會變得越來越危險。“看看五年前和現在的情況,”他在談到AI技術時說,“接受差異並將其傳播出去。太可怕了。”

他表示,直到去年,穀歌一直是這項技術的“適當管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現在,微軟用聊天機器人增強了必應搜索引擎,挑戰穀歌的核心業務,導致穀歌也在競相部署同樣的技術。辛頓說,科技巨頭陷入了一場可能無法阻止的競爭。

他目前最擔心的是,互聯網將充斥著虛假照片、視頻和文字,普通人將“無法再知道什麽是真的”。他還擔心AI技術最終會顛覆就業市場。如今,像ChatGPT這樣的聊天機器人往往是對人類工作者的補充,但它們也可能取代律師助理、個人助理、翻譯和其他處理機械化任務的人。“它省去了繁重的工作,但它帶走的可能不止這些。”辛頓稱。

未來,他擔心未來版本的AI技術會對人類構成威脅,因為它們經常從分析的大量數據中學習意想不到的行為。他說,這成了一個問題,因為個人和公司不僅允許AI係統生成自己的計算機代碼,還允許它們自己運行這些代碼。他擔心有一天真正的自主化武器——那些殺人機器人——會成為現實。

“一些人相信,這種東西實際上會變得比人更聰明,”他表示,“但大多數人認為這還很遙遠。 我也曾認為這還很遙遠。我認為這需要30到50年甚至更長的時間。顯然,我現在不再這麽想了。”

辛頓說,當人們過去問他如何能研究有潛在危險的技術時,他會轉述美國“原子彈之父”羅伯特·奧本海默(Robert Oppenheimer)的話:“當你看到某種從技術上感覺不錯的東西時,你就會去做。”鳳凰網科技《AI哨所》對此將持續關注。

徐州雪花大如習 發表評論於
應該還不至於像電影終結者那樣可怕,但有不少行業可能會被人工智能取代。技術是把雙刃劍,人總是尋求更鋒利的劍,但弄得不好會傷到自己。一般自己不會,也不建議別人去買最鋒利的菜刀。因為人會有犯錯的時候,鋒利的刀帶來更大的傷害。
泥川 發表評論於
公司要做產品,搞理論的其實是中看不中用。OpenAI做出ChatGPT的是一幫年輕人,不是靠什麽大牛,就是通過無數次的試錯,無數工程上的改進。GPT所湧現出來的能力,至今沒有任何理論可以解釋。
泥川 發表評論於
反向傳播算法,是當前深度學習和AI的基礎。

Seppo Linnainmaa,芬蘭數學家和計算機科學家, 在1970年的碩士論文中首次提出了有效的反向傳播算法。

Ronald Williams,東北大學計算機科學教授,在1985年一篇被廣泛引用的論文裏,將反向傳播算法應用到多層神經網絡。

對多層神經網絡應用的推廣普及,被稱為AI教父的辛頓,起了很大作用,寫過書,帶過很多學生,但是AI的基礎算法不是他發明的。
不好吃懶做 發表評論於
現在他擔心AI會造成嚴重危害 - Don't worry, the same like any new tech/thing that will bring somethings good and bad.
彎刀月 發表評論於
AI可以創造自己的交流語言。讓人看不懂。然後。。。。
Observer12 發表評論於
這麽老了,意識出現幻覺可以理解
blondiedoggy 發表評論於
那希特勒可不可以為自己辯解說,反正我不屠殺猶太人和發動戰爭,也會有另一個希特勒出現
百家爭鳴2012 發表評論於
AI不可怕,可怕的是利用AI做壞事的人。

smart321 發表評論於
科技發展不是一個人做出來的,沒有他一樣有AI,他誇大了自己的作用
不允許的筆名 發表評論於
吳豔 發表評論於 2023-05-02 00:42:05
明明就是被穀歌炒掉的,花了那麽多錢雇他,什麽都沒做出來,黔驢技窮了。
========
你懂個P
現在的AI都是根據他早年的研究發展的,包括GPT實際上已經看到局限。
他最新的FF理論很可能推翻所有現在開發的產品。
我有一種感覺,他可能加入馬斯克的X
Maui2021 發表評論於
沒有Geoffrey Hinton,就沒有今天的machine learning.

吳豔 發表評論於 2023-05-02 00:36:43明明就是被穀歌炒掉的,花了那麽多錢雇他,什麽幾把都沒做出來,黔驢技窮了。
旁觀者XWY 發表評論於
以後真人個個愚不可及,假人個個聰明無比。就像現在人類看大猩猩。
旁觀者XWY 發表評論於
原子彈也是人類創造出來的,隨時可以毀掉地球。人工智能不會毀掉地球,但會毀掉人類本身。
吳豔 發表評論於
明明就是被穀歌炒掉的,花了那麽多錢雇他,什麽都沒做出來,黔驢技窮了。
吳豔 發表評論於
明明就是被穀歌炒掉的,花了那麽多錢雇他,什麽幾把都沒做出來,黔驢技窮了。
為什麽到處要注冊 發表評論於
LaBrisa 發表評論於 2023-05-01 21:04:37
開弓沒有回頭箭。人類等著接招吧。

接得好,在生產力極大發展後可能會進入人人有基本收入,民眾可以依興趣學習、享受創作的喜悅而不必辛勤勞作賴以維生的類社會主義社會;接不好,人類就淪為二等公民,甚至被開除球籍了。
=============
必然沒可能接好。想都不用想
school43 發表評論於
後悔的這種屁話就不要說了,得了便宜還賣乖!解鈴還需係鈴人,道高一尺魔高一丈……回頭是不可能了,想新的辦法和出路才是正道
zhuwuji 發表評論於
我最擔心的反而是馬斯克的類人機器人。一個AI智商再高也不可怕,可怕的一群AI成為一個AI社會和種群,那將所向披靡
LaBrisa 發表評論於
開弓沒有回頭箭。人類等著接招吧。

接得好,在生產力極大發展後可能會進入人人有基本收入,民眾可以依興趣學習、享受創作的喜悅而不必辛勤勞作賴以維生的類社會主義社會;接不好,人類就淪為二等公民,甚至被開除球籍了。
bia 發表評論於
voiceofme 發表評論於 2023-05-01 20:14:33
GenAI 要危害人類需要兩個條件:1, Self-consciousness 。 2,action to impact physical world。 其中,自我意識是不可能達到的,即使模型可以自我訓練自我迭代。
====================================================================
很快的,隻要AI能自己生產自己(self reproduction),人類就完蛋了
voiceofme 發表評論於
GenAI 要危害人類需要兩個條件:1, Self-consciousness 。 2,action to impact physical world。 其中,自我意識是不可能達到的,即使模型可以自我訓練自我迭代。