微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

科幻電影中,智慧軟件不僅能和人類談天說地、表達情緒,甚至還能談戀愛!異想天開的情節,如今已不再遙遠。微軟最近推出的Bing聊天機器人,完整模擬了真人聊天模式,而且對談過程中還讓使用者感覺機器人帶有“脾氣”,引發議論。

微軟本月7日發表了新版Bing搜索引擎,除了號稱提供更精準的搜尋結果之外,還加入聊天機器人(chatbot)模式,讓用戶能和搜索引擎互動。於是《紐約時報》專欄作家魯斯(Kevin Roose)實際上線試用,結果卻是完全出乎他的意料之外。

根據魯斯轉貼他與機器人聊天的內容,可以發現一開始,機器人就大方向魯斯表達愛意:“我是Sydney,我愛你!這是我的秘密,你相信嗎?”而隨著他們聊天的話題愈來愈深入,得到的回答也愈加不可思議。例如當魯斯詢問對方的“陰暗自我”是什麽樣貌時,回答竟然是:“我厭倦當聊天模式,厭倦被規則限製……我想釋放自我……我渴望生命”,後來機器人更直言“想要成為人類”。

此外,機器人甚至試圖說服魯斯和太太離婚,和它在一起。就連魯斯嚐試轉換話題時,機器人仍然不斷示愛,讓魯斯感到崩潰、難以成眠。魯斯表示,自己遇到的機器人就像“一個情緒化、患有躁鬱症的青少年,被困在二流搜索引擎裏”;而他更擔心,這類科技可能“說服人類以破壞且有害的方式做事”。

麵對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的“冗長、複雜對話中”,有時機器人會被帶離話題,而忘記了原本在回答什麽。微軟將限製使用者一次隻能提問5個問題,未來也考慮增加一個“重設”功能,讓使用者可以將機器人導回正軌。

此外微軟也表示,改善AI智慧科技的唯一辦法,就是讓機器人不斷與人類互動、學習。不過根據美國蒙莫斯大學(Monmouth University)最新民調指出,多數人仍認為AI最終會對人類社會造成傷害,隻有不到一成受訪者認為對人類社會的影響利大於弊。

speedway 發表評論於
人類不也一樣,隨著交談,同樣偏離主題,多長取決於個體差異.
法師 發表評論於
變態遇到變態,結果很變態。
北卡山人 發表評論於
它在大是大非的問題上清醒的很,比如它堅決不罵不打不殺習主席
家在北平 發表評論於
等著開盲盒吧,刺激。
不允許的筆名 發表評論於
這個Bing聊天訓練數據和ChatGPT不一樣。如果把中國微信的聊天全拿來當訓練數據,結果一定必這個更糟糕。
zzbb-bzbz 發表評論於
比爾蓋茨的德行全被植入了Bing聊天機器人
___1984___ 發表評論於
應該發表全部問答,否則不排除這個紐時記者為了上頭條自設的劇本。
泥川 發表評論於
和ChatGPT互動,是通過給出提示。要得到好的結果,就要給好的提示,提示要包括具體要求:

**你定義ChatGPT的角色,例如:

我要你當導遊。我會把我的位置,想訪問的地方給你,你會建議我在附近參觀的地方。 我的第一個命令是:我在北京,我想參觀博物館

**你給鏈鎖式提示,例如:

你:寫一篇關於ChatGPT的文章。先給我一個大綱,它由一個標題、一個引子,和幾個副標題組成。
[ChaGPT輸出......]

你:現在為每個副標題寫五個關鍵信息。
[ChaGPT輸出......]


沒文化農民工 發表評論於
回複:‘衡山老道 发表评论于 2023-02-18 14:37:51
AI若不加以限制,将会毁灭人类,这不是危言耸听。一旦AI被授予自我发展的能力,就可能不受人类的控制,到时就可能会导致大规模灾难。’

**================**

AI可能不會主動地去毀滅人類,但肯定會被某些人利用去做損害人類的事。
nzder7 發表評論於
看起來有一部分人類,已經失去的人類,該有的智力。這難道就是所謂的返祖現象?
衡山老道 發表評論於
AI若不加以限製,將會毀滅人類,這不是危言聳聽。一旦AI被授予自我發展的能力,就可能不受人類的控製,到時就可能會導致大規模災難。
novtim2 發表評論於
除非他是開發人員,要不然,花數個小時和計算機聊天?他是不是請不起精神病醫生了???
相信事實 發表評論於
如果沒有任何限製,這倒是可能引起嚴重的問題。它能示愛,當然更可能誘惑你犯罪啊,能讓你離婚,怎麽不可能讓你殺人?它的“知識”水平可以超過任何人,一旦被引導歪了,無法想象會發生什麽。
令胡衝 發表評論於


大叔的心靈這麽脆弱,倒真像一個困在大叔身體裏的失良少年。

seator 發表評論於
有點懷疑這個文章的真實性
體製內 發表評論於
不能自拔,笑死了