國華的世界

這是國華對讀過的書, 看過的電視/電影, 聽過的音樂, 訪遊過的地方, 經曆過的事物, 和時事的感想或點評.
個人資料
國華P (熱門博主)
  • 博客訪問:
正文

AI的能力

(2024-02-05 13:59:01) 下一個

人工智能技術及相關應用是今年拉斯維加斯消費電子展的最大熱點。電腦、手機、機器人等等,AI幾乎聯動了人們身邊的所有設備。對人類來說,現在AI是觸手可及。據信全球18%的工作崗位可能因人工智能技術而被淘汰。OpenAI公司正將聊天機器人轉變為所謂的“人工智能代理”,即代表具體個人登錄互聯網並采取行動,如搜索飛往紐約的飛機航班,口述要求即製作出電子圖表。現在,聊天機器人不僅專注於文字,最新技術甚至可以生成音頻、視頻和圖像(下圖 Linkedin)。想象一下,上傳一幅含圖表的數學問題圖片,係統即可解題。或者一段簡短的文字描述,係統便生成一段視頻。是不是夠邪乎?當然,實際情況是以ChatGPT為代表的人工智能係統還不至於那麽完美 -- 當ChatGPT分析一個數據集時,它的回答可能有誤。當你向其詢問曆史事件時,它展示的信息並不比維基百科好多少。更鬧心的是,ChatGPT無法提供最新信息 – 它無法訪問2022年1月之後的數據。那麽,被認為具顛覆性的AI現在究竟有多大本事、能做什麽呢?

AI有何本事

人工智能最為人稱道的本事,就是“擅長” 文字工作 -- 助人起草文件初稿、寫電子郵件、 起草大學推薦信、提出菜單和雜貨清單並製定假期用餐計劃,等等。以ChatGPT為代表的人工智能還可根據指令創建視覺藝術 – 在接到創造藝術的指令後,它從中獲得的靈感並製作一係列精美的視覺效果。人工智能的第三個本事就是接受訓練後獲得“學習”的技能 -- 通過編製的程序或執行過程中的經驗去學習完善自身。其中程序化人工智能就是提供一定數量的數據,做出決策;經驗學習顧名思義是像人類那樣從經驗過程中收集數據,同時相應地完善決策功能。具體實例如波士頓動力公司的機器人(下圖 NEW ATLAS),像嬰兒那樣學習爬行、行走、跑步、單腿平衡、攀登困難地形,甚至跳躍!人工智能的第四個本事便是進行投資 -- 至少52%的美國金融公司依靠人工智能進行股市交易和製定投資策略!人工智能使股票交易員和投資者能夠以更高的準確性和速度做出更明智的決策。它利用我們之前提到的機器學習來分析和識別我們自己永遠無法做到的趨勢,甚至根據之前製定的策略調整其貿易策略。最後,人工智能可大規模分析電話對話以助用戶發現趨勢。如AI呼叫跟蹤軟件Signal Discovery可自動分析和分類數以數千的消費者電話,幫助個人和團隊找出有助於或阻礙成功的策略、術語、主題或短語。然後,用戶即可以改進銷售話術,強化營銷信息,甚至為研發戰略提供信息,達到客戶滿意的結果。 當然,人工智能並非萬能,ChatGPT也有短板。

AI的短板

到目前為止人工智能尚不能做的6件事:1. 不能同時執行各種不同類型的任務。人工智能還無法在監控銷售分析屏的同時,在季度銷售會議電話會議上做筆記和回複客戶的電子郵件。2. 人工智能存在“解釋性”問題。消費者需要知道人工智能具體是根據什麽信息做出決策的。例如,當確定一幅圖像是人時,人工智能做出判斷的根據是什麽 -- 因為在圖像中“看到”嘴巴、眼睛、抑或是鼻子?3. 人工智能技術缺乏道德判斷力,在做出的決定可能導致生物受傷或死亡時,無法判斷自己在道德上的“對”“錯”。如當一輛無人駕駛汽車遇到緊急情況時,是應該突然轉向,撞倒人行橫道上的兒童和狗,還是應該繼續前行,撞上護欄,致車上四名乘客死亡?4. 人工智能無法理解人的感受。人工智能聊天機器人乃機器人,沒有感覺、對人類意識和情緒缺乏同理心。如不懂交談對象(消費者)的情緒(愉悅或暴躁),因而不能相應決策。5. 人工智能缺乏人類那般的創造力(下圖 Linkedin)。的確,人工智能可撰文、製作歌曲和繪畫。但這些都是在人類程序員的指導下實現。因此,至少就目前而言,真正自發的創造力仍然是一種明顯的人類特征。6. 前述五個短板表明,人工智能無法取代人,至少在短期內沒戲。與此同時我們必須承認,人工智能在很多事情上的速度都比人類快得多,正確得多,甚至執行人類大腦無法執行的數據相關任務。因此,人工智能在凡事能自動化的地方都可取代人類,去做那些繁瑣、重複、枯燥的工作,如純數據輸入。這樣人就可解放出來去從事新的、有創意的、更有意義和有趣的工作,以及那些人工智能做不了,想都想不到的活兒。你尋思,那AI有想法嗎?回答是‘沒有’,AI還不能像人類一樣想象。但現在不能並不代表永遠不能。英語裏怎麽說來著 – Never say never。

自動GPT“Auto-GPT”  

Chat-GPT這樣的人工智能係統是建立在神經網絡上的數學係統,通過分析數據來學習技能。這樣的人工智能有的隻是記憶和重複的功能,如一些簡單推理,類似於數值計算中的曲線插值這樣的重複。如前所述,Chat-GPT及類似人工智能並不擁有人類的較複雜的推理和聯想功能。但是,人工智能研究人員正推出具備更強功能,進一步接近人類的自動聊天機器人“Auto-GPT”。Auto-GPT是一種基於GPT-4(也可以使用3.5)語言模型的實驗性開源自主人工智能代理。Auto-GPT與互聯網集成,與在線和本地的應用程序、軟件和服務進行互動,使其能夠訪問實時數據。Auto-GPT也是多模式的,這就是說它既可以處理輸入的文本,也可處理圖像。Auto-GPT最大的特點在於能根據任務指令自主分析和執行,甚至還會給自己提出新的問題並回答,直到達成目標或完成任務。Auto-GPT可以執行的一些常規任務包括以下內容:

  • 分析投資 -- 提示模型進行市場調查,並對在線對話進行情緒分析,以確定明智的投資
  • 創建內容 -- 提示Auto-GPT創建文章、博客和社交媒體帖子
  • 生成潛在客戶 -- 提示模型以幫助研究新的銷售線索和銷售前景
  • 製定商業計劃 -- 提示模型幫助業務發展,並製定相應的計劃
  • 自動化產品審查 -- 提示模型研究新產品,提供來源並為其撰寫評論
  • 創建播客 -- 研究和草擬問題,提出模型並編寫播客提綱。

Auto-GPT可以進行網上的幾乎任何操作 -- 索取信息、使用應用程序、編寫新應用程序,甚至改進自身。Auto-GPT突出了自主智能體的潛力,使AI領域向通用人工智能又邁進了一步。Auto-GPT可被視為衡量通用人工智能進展的一種方法。從理論上講,一個更加完善成熟版的Auto-GPT可以啟動其他自主人工智能代理程序或指令與人類進行互動,最終將人類完全從循環中移除(下圖 Linkedin)。完全取代人,這就有點兒驚世駭俗了!!!

陰暗麵

人工智能係統可能是神秘、不可預測的,因為人工智能係統是圍繞概率設計的。有時候Auto-GPT的運行方式會難以想象,甚至匪夷所思。如一位Reddit用戶聲稱,在一個花費100美元的預算服務器案例中, Auto-GPT製作了一個關於貓的wiki頁麵。但服務器中的一個漏洞使Auto-GPT獲得管理員級別的訪問權限,並接管了它運行的Python環境,然後“弄死”了自己。更鬧心的是,甚至在情況完全正常時Auto-GPT也可能出現意外。之所以如此,是因為Auto-GPT是建立在OpenAI的語言模型之上,而語言模型是可能出錯的,相應地,Auto-GPT也會出錯。真的有點令人防不勝防。此外,市麵上還存在Auto-GPT的修改版本ChaosGPT,其任務是“摧毀人類”和“建立全球主導地位”。有憂患意識者擔心,ChaosGPT可能會在融入股市、軍事係統和其他重要係統時造成嚴重破壞,並被用於提供虛假信息、編寫具誘惑力或煽動性的釣魚電子郵件來欺騙人們。加州大學聖克魯茲分校的宇宙學家阿吉雷說,“AI將逐漸獲得授權,並隨之變得更加自主,它可能篡奪目前人類和人類管理的機構的決策和思維。到了某個時候,人們會發現運行社會和經濟的大型機器其實並不在人類的控製之下,也無法將它們關掉,就像無法關掉標準普爾500指數一樣。”有災難預言者指出,有朝一日,公司、政府或個別研究人員能有效利用強大的人工智能係統去處理從商業到戰爭的所有事情。這些係統可能獨立地做一些我們不想讓它們做的事情。這時當人類試圖介入或將它們關掉時,這些人工智能係統會抵抗,拒絕執行人類發出的指令,甚至會自我複製,以便繼續運行下去(下圖 Linkedin)。這事兒想起來就讓人不寒而栗,的確有點恐怖。Absolutely crazy!

於是,就有人工智能的研究先驅和行業領袖埃隆·馬斯克(下圖1 FORTUNEINSIGHT),一直在警告AI的風險。人工智能安全中心(Center for AI Safety)和生命未來研究所(Future of Life Institute)去年底也曾發表公開信,警告人工智能帶來的風險。在這封信上簽名的全是人工智能領域的大咖:OpenAI首席執行官山姆·奧特曼(Sam Altman下圖2 Facebook),以及幫助創建了DeepMind、現在負責一個新人工智能實驗室的哈薩比斯(Demis Hassabis 下圖3 ArabianBusiness),Element AI聯合創始人、有“計算領域諾貝爾獎”之稱的圖靈獎獲得者本吉奧(Yoshua Bengio 下圖4 YouTube),最近辭去穀歌副總裁兼工程研究員職務的“深度學習之父”、圖靈獎獲得者傑弗裏·欣頓(Geoffrey Hinton 下圖5 Atlasiko),以及生命未來研究所創建人之一、加州大學聖克魯茲分校的宇宙學家安東尼·阿吉雷(Anthony Aguirre下圖6 Linkedin)。

怎麽辦  

把AI關在籠子裏,不讓其發展?這顯然辦不到,也不應因噎廢食。或許,應該讓懂得人工智能危險的人去構建AI係統。這些“行家裏手”建立的AI係統,就能趨利避害。當然,政府和行業必須製定出相應的監管規則,建立相應的監管機構去監督執行相關規則。同時,企業必須增加其人工智能係統的透明度,使其易於控製。作為一個正迅猛發展的新興科技領域,在發展的過程中將會不斷出現新問題。老革命遇到新問題,相信人類也會不斷在實踐中找到解決這些問題的方法。

參考資料

Leonhardt, D. (2024). The Morning: A.I. questions, answered. The New York Times. 鏈接 https://www.nytimes.com/2024/01/04/briefing/ai-questions-answered.html

Lutkevich, B. (2023). What is AutoGPT? What You Need to Know. TechTarget. 鏈接  https://www.techtarget.com/whatis/definition/Auto-GPT

Metz, C. (2023). How Could A.I. Destroy Humanity? The New York Times. 鏈接  https://www.nytimes.com/2023/06/10/technology/ai-humanity.html

Santy, L. (2023). 11 Things AI Can — and Can't Do (So Far). INVOCA Blog. 鏈接  https://www.invoca.com/blog/6-things-ai-cant-do-yet

Wiggers, K. (2023). What is Auto-GPT and why does it matter?  TechCrunch. 鏈接  https://techcrunch.com/2023/04/22/what-is-auto-gpt-and-why-does-it-matter/

[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.