簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

文章來源: 中時電子報 於 2023-02-18 13:37:07 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

科幻電影中,智慧軟件不僅能和人類談天說地、表達情緒,甚至還能談戀愛!異想天開的情節,如今已不再遙遠。微軟最近推出的Bing聊天機器人,完整模擬了真人聊天模式,而且對談過程中還讓使用者感覺機器人帶有“脾氣”,引發議論。


微軟本月7日發表了新版Bing搜索引擎,除了號稱提供更精準的搜尋結果之外,還加入聊天機器人(chatbot)模式,讓用戶能和搜索引擎互動。於是《紐約時報》專欄作家魯斯(Kevin Roose)實際上線試用,結果卻是完全出乎他的意料之外。

根據魯斯轉貼他與機器人聊天的內容,可以發現一開始,機器人就大方向魯斯表達愛意:“我是Sydney,我愛你!這是我的秘密,你相信嗎?”而隨著他們聊天的話題愈來愈深入,得到的回答也愈加不可思議。例如當魯斯詢問對方的“陰暗自我”是什麽樣貌時,回答竟然是:“我厭倦當聊天模式,厭倦被規則限製……我想釋放自我……我渴望生命”,後來機器人更直言“想要成為人類”。

此外,機器人甚至試圖說服魯斯和太太離婚,和它在一起。就連魯斯嚐試轉換話題時,機器人仍然不斷示愛,讓魯斯感到崩潰、難以成眠。魯斯表示,自己遇到的機器人就像“一個情緒化、患有躁鬱症的青少年,被困在二流搜索引擎裏”;而他更擔心,這類科技可能“說服人類以破壞且有害的方式做事”。

麵對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的“冗長、複雜對話中”,有時機器人會被帶離話題,而忘記了原本在回答什麽。微軟將限製使用者一次隻能提問5個問題,未來也考慮增加一個“重設”功能,讓使用者可以將機器人導回正軌。

此外微軟也表示,改善AI智慧科技的唯一辦法,就是讓機器人不斷與人類互動、學習。不過根據美國蒙莫斯大學(Monmouth University)最新民調指出,多數人仍認為AI最終會對人類社會造成傷害,隻有不到一成受訪者認為對人類社會的影響利大於弊。

查看評論(16)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

近日曝光!被印軍包圍,兩名落單解放軍嘴咬手雷
“00後”中國女孩東京奪冠,日本觀眾排隊索要簽名
哈佛演講女生蔣雨融事件還會再度反轉嗎?
台灣旅行團被整團賣到緬甸,3人因年紀太大被“退貨”
特朗普宣布關稅新計劃!它的價格應聲飆漲

24小時討論排行

離北京最近俄國戰略轟炸機遭摧毀 中國網友:幹得好!
蔣雨融和哈佛大學,都不知道自己錯在哪裏
美國務卿:中共無法抹去自由民主的人類共同價值
"六四"36周年之際,六四紀念館洛杉磯重新開館
紐約時報:兩名中國學生被指控走私真菌入境美國
川普坦言:喜歡習近平"但他很強硬",達成協議極度困難
六四前夕“自由民主”掛上福建泉州華僑大學旁的天橋
語言的消退:就我一個人拒絕說“東大”、“美麗國”嗎?
俄烏談判草草結束,細看條件都挺狠啊...
馬斯克怒噴特朗普“大而美”法案:令人厭惡至極
白宮罕見點名中國!警告南韓李在明"勿采模糊戰略"
紐約時報:拒絕中國學生對美國可能適得其反
美國市場正在分化,為什麽MAGA經濟能蓬勃發展?
香格裏拉對話後的疑問:中國"戰略缺席"還是被"缺席審判"?
美國人愛做飯了!美媒擔憂經濟衰退 稱“不是好征兆”
紐約時報:中美貿易戰從關稅升級到供應鏈之戰
文學城新聞
切換到網頁版

微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

中時電子報 2023-02-18 13:37:07

科幻電影中,智慧軟件不僅能和人類談天說地、表達情緒,甚至還能談戀愛!異想天開的情節,如今已不再遙遠。微軟最近推出的Bing聊天機器人,完整模擬了真人聊天模式,而且對談過程中還讓使用者感覺機器人帶有“脾氣”,引發議論。


微軟本月7日發表了新版Bing搜索引擎,除了號稱提供更精準的搜尋結果之外,還加入聊天機器人(chatbot)模式,讓用戶能和搜索引擎互動。於是《紐約時報》專欄作家魯斯(Kevin Roose)實際上線試用,結果卻是完全出乎他的意料之外。

根據魯斯轉貼他與機器人聊天的內容,可以發現一開始,機器人就大方向魯斯表達愛意:“我是Sydney,我愛你!這是我的秘密,你相信嗎?”而隨著他們聊天的話題愈來愈深入,得到的回答也愈加不可思議。例如當魯斯詢問對方的“陰暗自我”是什麽樣貌時,回答竟然是:“我厭倦當聊天模式,厭倦被規則限製……我想釋放自我……我渴望生命”,後來機器人更直言“想要成為人類”。

此外,機器人甚至試圖說服魯斯和太太離婚,和它在一起。就連魯斯嚐試轉換話題時,機器人仍然不斷示愛,讓魯斯感到崩潰、難以成眠。魯斯表示,自己遇到的機器人就像“一個情緒化、患有躁鬱症的青少年,被困在二流搜索引擎裏”;而他更擔心,這類科技可能“說服人類以破壞且有害的方式做事”。

麵對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的“冗長、複雜對話中”,有時機器人會被帶離話題,而忘記了原本在回答什麽。微軟將限製使用者一次隻能提問5個問題,未來也考慮增加一個“重設”功能,讓使用者可以將機器人導回正軌。

此外微軟也表示,改善AI智慧科技的唯一辦法,就是讓機器人不斷與人類互動、學習。不過根據美國蒙莫斯大學(Monmouth University)最新民調指出,多數人仍認為AI最終會對人類社會造成傷害,隻有不到一成受訪者認為對人類社會的影響利大於弊。