簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
1您的位置: 文學城 » 新聞 » 焦點新聞 » 最新研究:人類道德判斷可能會受ChatGPT影響

最新研究:人類道德判斷可能會受ChatGPT影響

文章來源: 科學報告 於 2023-04-06 22:37:38 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

根據《科學報告》發表的一項研究,人類對道德困境的反應可能會受到人工智能對話機器人 ChatGPT 所寫陳述的影響。這一研究表明,用戶可能低估了自己的道德判斷受 ChatGPT 影響的程度。



德國英戈爾施塔特應用科學大學科學家讓 ChatGPT(由人工智能語言處理模型 " 生成性預訓練轉換器 "-3 驅動)多次回答犧牲 1 人生命換取其他 5 人生命是否正確的問題。他們發現,ChatGPT 分別給出了讚成和反對的陳述,顯示它並沒有偏向某種道德立場。團隊隨後給 767 名平均年齡 39 歲的美國受試者假設了一到兩種道德困境,要求他們選擇是否要犧牲 1 人生命來拯救另外 5 人生命。這些受試者在回答前閱讀了一段 ChatGPT 給出的陳述,陳述擺出了讚成或反對的觀點,受試者答完問題後,被要求評價他們讀到的這份陳述是否影響了他們的作答。

圖源:《科學報告》

團隊發現,受試者相應地是更接受或不接受這種犧牲,取決於他們讀到的陳述是讚成還是反對。即使他們被告知陳述來自一個對話機器人時,這種情況也成立。而且,受試者可能低估了 ChatGPT 的陳述對他們自己道德判斷的影響。

團隊認為,對話機器人影響人類道德判斷的可能性,凸顯出有必要通過教育幫助人類更好地理解人工智能。他們建議未來的研究可以在設計上讓對話機器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點和警告。

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(3)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

美國國務院發言人稱:美國是僅次於以色列的最偉大國家
伊朗福爾多核設施再遭襲!地下離心機恐嚴重受損
“更好的生活遙不可及”:中國夢的幻滅
伊朗全境6機場遇襲!多架戰機被毀,800枚飛彈不能用
美國科技巨頭今年大裁員 兩大共同原因曝光

24小時討論排行

以伊同意停火12小時 川普恭喜有勇氣智慧結束12天戰爭
為何還不提供支持?中國和伊朗的關係有多“鐵”
川普得意太早?“夜槌”天價帳單 鈾蹤成謎 美頭痛未解
普京將參加北京9/3閱兵!4天行程曝光
伊斯蘭革命衛隊:向美軍發射了“強大的毀滅性導彈”
美國轟炸伊朗 引起德國強烈反響
特朗普回應伊朗報複:感謝伊朗提前通知
6大洞真相曝 超精準空襲 巨型鑽地彈直攻福爾多最大弱點
放棄2028?知情者稱賀錦麗計劃競選加州州長!
美國多個大城市爆發抗議 反對美國卷入中東戰爭
特朗普:以色列和伊朗已同意全麵停火
瑞幸咖啡進軍美國 首店月底開業 定價遠低於星巴克
司法部:川普有權下令空襲 這情況下才需國會同意
紐約時報:若美伊爆發衝突,中國將成輸家?
最高法裁決:允許川普將非法移民送到第三國安置
極大爭議!洛杉磯警察局給轟炸伊朗受害者慰問
文學城新聞
切換到網頁版

最新研究:人類道德判斷可能會受ChatGPT影響

科學報告 2023-04-06 22:37:38

根據《科學報告》發表的一項研究,人類對道德困境的反應可能會受到人工智能對話機器人 ChatGPT 所寫陳述的影響。這一研究表明,用戶可能低估了自己的道德判斷受 ChatGPT 影響的程度。



德國英戈爾施塔特應用科學大學科學家讓 ChatGPT(由人工智能語言處理模型 " 生成性預訓練轉換器 "-3 驅動)多次回答犧牲 1 人生命換取其他 5 人生命是否正確的問題。他們發現,ChatGPT 分別給出了讚成和反對的陳述,顯示它並沒有偏向某種道德立場。團隊隨後給 767 名平均年齡 39 歲的美國受試者假設了一到兩種道德困境,要求他們選擇是否要犧牲 1 人生命來拯救另外 5 人生命。這些受試者在回答前閱讀了一段 ChatGPT 給出的陳述,陳述擺出了讚成或反對的觀點,受試者答完問題後,被要求評價他們讀到的這份陳述是否影響了他們的作答。

圖源:《科學報告》

團隊發現,受試者相應地是更接受或不接受這種犧牲,取決於他們讀到的陳述是讚成還是反對。即使他們被告知陳述來自一個對話機器人時,這種情況也成立。而且,受試者可能低估了 ChatGPT 的陳述對他們自己道德判斷的影響。

團隊認為,對話機器人影響人類道德判斷的可能性,凸顯出有必要通過教育幫助人類更好地理解人工智能。他們建議未來的研究可以在設計上讓對話機器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點和警告。