2015 (1)
2017 (409)
2018 (167)
2019 (306)
2020 (275)
2021 (266)
2022 (224)
2023 (317)
最近有個新思維,新想法,想通過AI驗證一下,首先探討這個想法怎麽樣,AI給予支持。
接下來,讓AI判斷一下是否是新的觀點,AI說不是新觀點,再讓AI搜索10篇相關論文,結果AI給了10篇論文的題目和摘要,也有年月和雜誌名稱。感覺有些失望,以為是最新的觀念,其實,早就有人論述了。
新華社北京5月12日電 人工智能係統是否會欺騙人類,一直是各方都關心的問題。近期美國麻省理工學院一個研究團隊稱,部分人工智能係統已經學會如何欺騙人類,其中包括部分號稱已被訓練成樂於助人和誠實的係統。該研究成果發表在美國細胞出版社旗下的《模式》雜誌上。
文章第一作者、美國麻省理工學院人工智能安全領域博士後彼得·帕克和他的同事們分析了一些文獻,重點關注了人工智能係統傳播虛假信息的方式——通過習得性欺騙,它們係統地學會了“操縱”他人。
研究人員發現的最引人注目的人工智能係統欺騙例子是元宇宙平台公司的“西塞羅”人工智能係統,它被設計在一個虛擬外交戰略遊戲中作為人類玩家的對手。盡管元宇宙平台公司聲稱,“西塞羅”人工智能係統“在很大程度上是誠實和樂於助人的”,並且在玩遊戲時“從不故意背刺”它的人類盟友,但該公司發表的論文數據顯示,該係統並沒有公平地玩遊戲。
“我們發現元宇宙平台公司的人工智能係統已經成為欺騙大師。”帕克說,“雖然元宇宙平台公司成功訓練其人工智能係統在遊戲中獲勝——‘西塞羅’人工智能係統在玩家排行榜中排名前10%——但沒能訓練它誠實地獲勝。”
其他人工智能係統則具有在撲克遊戲中虛張聲勢的能力,或在戰略遊戲“星際爭霸2”中為了擊敗對手而假裝攻擊的能力,以及為了在談判遊戲中占上風而歪曲偏好的能力等。
研究人員表示,雖然人工智能係統在遊戲中作弊似乎是無害的,但它可能會導致“欺騙性人工智能能力的突破”,並在未來演變成更高級的人工智能欺騙形式。
帕克說:“我們需要盡可能多的時間,為未來人工智能產品和開源模型可能出現的更高級欺騙做好準備。我們建議將欺騙性人工智能係統歸類為高風險係統。”
回頭查看那10篇論文,在Google中搜索,一篇也沒有搜索到,問AI,為什麽?AI回答:我虛構的。繼續問:為什麽虛構?回答:對不起,今後注意。