個人資料
正文

最新研究表明,人們更信任 ChatGPT 提供的法律建議,而非律師

(2025-04-28 19:30:28) 下一個

非法律專業人士更願意依賴 ChatGPT 提供的法律建議,而不是真正的律師——至少在他們不知道建議是由哪一方提供的情況下。這是我們新研究的關鍵發現,該研究凸顯了公眾日益依賴人工智能生成內容的一些重要擔憂。我們還發現,公眾至少能夠在一定程度上辨別這些建議是來自 ChatGPT 還是人類律師。

ChatGPT 等人工智能工具以及其他大型語言模型 (LLM) 正在逐漸融入我們的日常生活。它們承諾能夠快速解答問題、生成思路、診斷醫學症狀,甚至提供具體的法律建議,幫助解答法律問題。

但眾所周知,LLM 會產生所謂的“幻覺”,即輸出包含不準確或無意義內容的成果。這意味著過度依賴 LLM 會帶來真正的風險,尤其是在法律等高風險領域。 LLM 往往會自信地提出建議,讓人難以區分好建議和果斷的壞建議。

我們共對288人進行了三項實驗。在前兩項實驗中,參與者獲得了法律建議,並被問及他們願意采納哪一項。我們發現,當人們不知道這些建議是來自律師還是人工智能時,他們更願意依賴人工智能生成的建議。這意味著,如果法學碩士(LLM)提供的法律建議沒有透露其性質,人們可能會將其視為事實,並且比律師的專業建議更傾向於接受——甚至可能不會質疑其準確性。

即使告訴參與者哪些建議來自律師、哪些建議是由人工智能生成的,我們發現他們也像律師一樣願意遵循 ChatGPT。

我們在研究中發現,法學碩士(LLM)受青睞的原因之一是他們使用的語言更複雜。另一方麵,真正的律師傾向於使用更簡單的語言,但在回答問題時會用到更多詞匯。

第三個實驗探究了參與者在未透露來源的情況下,能否區分法學碩士(LLM)撰寫的內容和律師撰寫的內容。好消息是,他們能夠區分,但差別不大。

在我們的任務中,隨機猜測的得分為0.5,而完美的辨別能力則為1.0。參與者的平均得分為0.59,這表明他們的表現略好於隨機猜測,但仍然相對較弱。

監管與人工智能素養
對於我們這樣的研究來說,這是一個關鍵時刻,因為聊天機器人和法學碩士等人工智能係統正日益融入日常生活。 Alexa 或 Google Home 可以充當家庭助理,而人工智能係統可以幫助完成諸如在線購物、總結法律文本或生成醫療記錄等複雜任務。

然而,這也伴隨著巨大的風險,即在幻覺錯誤信息的引導下做出可能改變人生的決定。在這起法律案件中,人工智能生成的幻覺建議可能會導致不必要的麻煩,甚至造成誤判。

正因如此,對人工智能進行妥善監管比以往任何時候都更加重要。迄今為止,相關嚐試包括《歐盟人工智能法案》,其中第50.9條規定,文本生成人工智能應確保其輸出“以機器可讀的格式標記,並可檢測為人工生成或操縱的”。

但這隻是解決方案的一部分。我們還需要提高公眾對人工智能的認知,以便公眾能夠更好地批判性地評估內容。當人們能夠更好地識別人工智能時,他們就能做出更明智的決定。

這意味著我們需要學會質疑建議的來源,了解人工智能的能力和局限性,並在與人工智能生成的內容交互時強調運用批判性思維和常識。實際上,這意味著要與可靠的來源交叉核對重要信息,並邀請人類專家參與,以防止過度依賴人工智能生成的信息。

就法律谘詢而言,使用人工智能來回答一些初步問題或許沒問題:“我有哪些選擇?我需要了解哪些資料?有沒有類似的案例,或者這屬於哪個法律領域?” 但重要的是,在最終上法庭或根據法學碩士生成的任何信息采取行動之前,要先與人類律師核實建議。

人工智能可能是一種寶貴的工具,但我們必須負責任地使用它。通過采取雙管齊下的方法,既注重監管,又注重人工智能素養,我們就能充分利用其優勢,同時最大限度地降低其風險。

https://techxplore.com/news/2025-04-people-legal-advice-generated-chatgpt.html?utm_source=nwletter&utm_medium=email&utm_campaign=daily-nwletter

[ 打印 ]
評論
目前還沒有任何評論
登錄後才可評論.