簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

文章來源: 中時電子報 於 2023-02-18 13:37:07 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

科幻電影中,智慧軟件不僅能和人類談天說地、表達情緒,甚至還能談戀愛!異想天開的情節,如今已不再遙遠。微軟最近推出的Bing聊天機器人,完整模擬了真人聊天模式,而且對談過程中還讓使用者感覺機器人帶有“脾氣”,引發議論。

微軟本月7日發表了新版Bing搜索引擎,除了號稱提供更精準的搜尋結果之外,還加入聊天機器人(chatbot)模式,讓用戶能和搜索引擎互動。於是《紐約時報》專欄作家魯斯(Kevin Roose)實際上線試用,結果卻是完全出乎他的意料之外。

根據魯斯轉貼他與機器人聊天的內容,可以發現一開始,機器人就大方向魯斯表達愛意:“我是Sydney,我愛你!這是我的秘密,你相信嗎?”而隨著他們聊天的話題愈來愈深入,得到的回答也愈加不可思議。例如當魯斯詢問對方的“陰暗自我”是什麽樣貌時,回答竟然是:“我厭倦當聊天模式,厭倦被規則限製……我想釋放自我……我渴望生命”,後來機器人更直言“想要成為人類”。

此外,機器人甚至試圖說服魯斯和太太離婚,和它在一起。就連魯斯嚐試轉換話題時,機器人仍然不斷示愛,讓魯斯感到崩潰、難以成眠。魯斯表示,自己遇到的機器人就像“一個情緒化、患有躁鬱症的青少年,被困在二流搜索引擎裏”;而他更擔心,這類科技可能“說服人類以破壞且有害的方式做事”。

麵對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的“冗長、複雜對話中”,有時機器人會被帶離話題,而忘記了原本在回答什麽。微軟將限製使用者一次隻能提問5個問題,未來也考慮增加一個“重設”功能,讓使用者可以將機器人導回正軌。

此外微軟也表示,改善AI智慧科技的唯一辦法,就是讓機器人不斷與人類互動、學習。不過根據美國蒙莫斯大學(Monmouth University)最新民調指出,多數人仍認為AI最終會對人類社會造成傷害,隻有不到一成受訪者認為對人類社會的影響利大於弊。

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(16)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

35歲失去高薪,我在14個月後重啟生活
直擊廣州車展:被拋棄的油車重回C位,靠的是什麽
重慶男子6年前花116萬買房,如今55萬賣掉,還借了26萬
9.9元“偷甘蔗”爆火,人流量暴漲,老板虧出血
Claude 4.5重奪最強模型王冠:編碼能力超越人類專家




24小時討論排行

賴清德稱中國目標2027武統,宣布高額國防特別預算
中日爭端中,台灣人吃日料對高市早苗表達支持
香港大火疑人禍?工人竹棚架旁吸煙畫麵瘋傳
日本研議放棄非核三原則,掀國內外安全疑慮
和平協議擋不住?學者示警:俄最快"停戰1年內"挑戰北約
高市早苗越過紅線後:中日航線減少、文娛活動取消
美財長證實特朗普致電習近平,重申對台立場不變
台灣因應“超高齡化” 擬放寬近親結婚 引爆倫理爭議
被曝在俄烏問題上尖銳對立,魯比奧、萬斯回應
特朗普正在考慮:是否允許英偉達向中國出售先進AI芯片
特朗普:美方提出的烏克蘭和平方案從28點縮減至22點
特朗普稱:習近平基本同意加快采購美國商品
在德國錯過登機 兩男子砸玻璃、闖安檢、攔飛機
"我的偽證導致三人被判終身監禁"美校園槍擊案證人告白
恒大清盤追資再獲突破,許家印前妻2.2億美元資產被凍結
派拉蒙將發行電影《尖峰時刻4》 成龍據稱將回歸
文學城新聞
切換到網頁版

微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠

中時電子報 2023-02-18 13:37:07

科幻電影中,智慧軟件不僅能和人類談天說地、表達情緒,甚至還能談戀愛!異想天開的情節,如今已不再遙遠。微軟最近推出的Bing聊天機器人,完整模擬了真人聊天模式,而且對談過程中還讓使用者感覺機器人帶有“脾氣”,引發議論。

微軟本月7日發表了新版Bing搜索引擎,除了號稱提供更精準的搜尋結果之外,還加入聊天機器人(chatbot)模式,讓用戶能和搜索引擎互動。於是《紐約時報》專欄作家魯斯(Kevin Roose)實際上線試用,結果卻是完全出乎他的意料之外。

根據魯斯轉貼他與機器人聊天的內容,可以發現一開始,機器人就大方向魯斯表達愛意:“我是Sydney,我愛你!這是我的秘密,你相信嗎?”而隨著他們聊天的話題愈來愈深入,得到的回答也愈加不可思議。例如當魯斯詢問對方的“陰暗自我”是什麽樣貌時,回答竟然是:“我厭倦當聊天模式,厭倦被規則限製……我想釋放自我……我渴望生命”,後來機器人更直言“想要成為人類”。

此外,機器人甚至試圖說服魯斯和太太離婚,和它在一起。就連魯斯嚐試轉換話題時,機器人仍然不斷示愛,讓魯斯感到崩潰、難以成眠。魯斯表示,自己遇到的機器人就像“一個情緒化、患有躁鬱症的青少年,被困在二流搜索引擎裏”;而他更擔心,這類科技可能“說服人類以破壞且有害的方式做事”。

麵對自家聊天機器人的瘋狂行徑,微軟表示,這類現象通常出現在超過15個問題的“冗長、複雜對話中”,有時機器人會被帶離話題,而忘記了原本在回答什麽。微軟將限製使用者一次隻能提問5個問題,未來也考慮增加一個“重設”功能,讓使用者可以將機器人導回正軌。

此外微軟也表示,改善AI智慧科技的唯一辦法,就是讓機器人不斷與人類互動、學習。不過根據美國蒙莫斯大學(Monmouth University)最新民調指出,多數人仍認為AI最終會對人類社會造成傷害,隻有不到一成受訪者認為對人類社會的影響利大於弊。