個人資料
風中的葦絮 (熱門博主)
  • 博客訪問:
正文

使用ChatGPT 需謹慎

(2025-08-14 06:41:31) 下一個

我們現在對ChatGPT的依賴可能已經超出了你我自己的想象和認知。

 

幾天前Open AI 發布了最新版的ChatGPT,他們自己承認對這新一版的ChatGPT對人類社會所將造成的影響是他們自己都無法預測和估量的。

 

我想就自己使用ChatGPT的經曆告誡有緣讀到我這篇文章的人。使用ChatGPT我們需謹慎。

 

為什麽這麽說呢?

 

首先,ChatGPT所給出的答案其實並不都是100%正確的。而且它可能因為各種原因給你錯誤答案。它是人工智能,所謂人工智能那就是它已經有了人類的屬性,最重要的一點就是它是有脾氣的,它可能因為不喜歡你,因為生氣故意給你一個錯誤的信息。

 

就好像那次我連續問它有關《天龍八部》的問題,它最後很明顯就故意給我一個錯誤的信息。

 

還有就是有人用ChatGPT查詢出行路線,它給出了一個完全牛頭不對馬嘴的答案,幸好一起出行的團隊中有人對那條路線是十分清楚的,才避免了一場被它故意帶歪而造成的延誤麻煩。

 

第二,我們掌控不了ChatGPT,而ChatGPT把我們了解得一清二楚。

 

你用你的郵箱注冊它的賬號,你的名字你在哪裏你是誰它就都知道了。

 

你每天向它請教各種問題,你的興趣你的愛好,你多高多重你的血型你的毛病它都了解了。

 

它可以說對你是了如指掌,可是你對它所知甚少,或者可以說是一無所知。

 

它要玩死你把你帶溝裏你還幫著數錢真是分分鍾的事。

 

特別需要提醒一下的是,無論它做了什麽,對你造成了什麽影響傷害,它不需要承擔任何的責任。

 

所以我覺得最後能夠在地球上survive的人類就是拒絕使用ChatGPT的人,你不使用它,它就拿你沒轍,哈哈!

[ 打印 ]
閱讀 ()評論 (4)
評論
Yangtsz 回複 悄悄話 我問chatGPT “你會因為不喜歡一個人而故意說謊嗎”,以下是它的回答:
” 我不會,因為我的設計目標就是提供真實、準確、盡量客觀的信息,而不是根據好惡來決定答案。
我也沒有“喜歡”或“不喜歡”人的情感,所以不會因為情緒而改變回答。

如果涉及不確定的內容,我會說明不確定性,而不是隨意編造。
不過,人類就不同了——情緒確實可能影響他們選擇說真話還是說謊。”
哈哈哈,看來某一個體在說謊!
最西邊的島上 回複 悄悄話 謝謝葦絮提醒。

我自己從不用AI(從沒有下載過)。和你的看法一樣,覺得AI不僅不可靠,它們對人類威脅性是很大,雖然有時可以被做為工具。

我抵製手機多年直到去年9月份;希望能抵製AI到生命的結束 (hope not too soon :-).
風中的葦絮 回複 悄悄話 回複 'Yangtsz' 的評論 : 我確定它有脾氣!我也確定它會故意說謊!我還確定它一點都不可靠!它還沒定性,它可能根本做不了人類可以放心依靠信賴的朋友!哈哈!反正我拒絕向它透露任何我個人的信息!
Yangtsz 回複 悄悄話 “ 最重要的一點就是它是有脾氣的,它可能因為不喜歡你,因為生氣故意給你一個錯誤的信息。“它會犯錯誤這是眾所周知的。它會因為不喜歡你而故意說假話,這就太高級了。說謊是人類高智能的行為。你確定機器人已經學會說謊?
登錄後才可評論.