評論: 微軟Bing聊天機器人示愛太瘋狂 紐時記者嚇到失眠
隻有登錄用戶才能發表評論,
點擊此處
登錄
返回新聞帖
speedway
發表評論於 2023-02-19 05:45:00
人類不也一樣,隨著交談,同樣偏離主題,多長取決於個體差異.
法師
發表評論於 2023-02-18 21:10:51
變態遇到變態,結果很變態。
北卡山人
發表評論於 2023-02-18 19:03:19
它在大是大非的問題上清醒的很,比如它堅決不罵不打不殺習主席
家在北平
發表評論於 2023-02-18 18:53:46
等著開盲盒吧,刺激。
不允許的筆名
發表評論於 2023-02-18 17:55:53
這個Bing聊天訓練數據和ChatGPT不一樣。如果把中國微信的聊天全拿來當訓練數據,結果一定必這個更糟糕。
zzbb-bzbz
發表評論於 2023-02-18 16:34:22
比爾蓋茨的德行全被植入了Bing聊天機器人
___1984___
發表評論於 2023-02-18 16:26:30
應該發表全部問答,否則不排除這個紐時記者為了上頭條自設的劇本。
泥川
發表評論於 2023-02-18 15:39:29
和ChatGPT互動,是通過給出提示。要得到好的結果,就要給好的提示,提示要包括具體要求:
**你定義ChatGPT的角色,例如:
我要你當導遊。我會把我的位置,想訪問的地方給你,你會建議我在附近參觀的地方。 我的第一個命令是:我在北京,我想參觀博物館
**你給鏈鎖式提示,例如:
你:寫一篇關於ChatGPT的文章。先給我一個大綱,它由一個標題、一個引子,和幾個副標題組成。
[ChaGPT輸出......]
你:現在為每個副標題寫五個關鍵信息。
[ChaGPT輸出......]
沒文化農民工
發表評論於 2023-02-18 15:12:59
回複:‘è¡¡å±±èé å表è¯è®ºäº 2023-02-18 14:37:51
AIè¥ä¸å 以éå¶ï¼å°ä¼æ¯ç人类ï¼è¿ä¸æ¯å±è¨è¸å¬ãä¸æ¦AI被æäºèªæåå±çè½åï¼å°±å¯è½ä¸å人类çæ§å¶ï¼å°æ¶å°±å¯è½ä¼å¯¼è´å¤§è§æ¨¡ç¾é¾ã’
**================**
AI可能不會主動地去毀滅人類,但肯定會被某些人利用去做損害人類的事。
nzder7
發表評論於 2023-02-18 14:42:00
看起來有一部分人類,已經失去的人類,該有的智力。這難道就是所謂的返祖現象?
衡山老道
發表評論於 2023-02-18 14:37:51
AI若不加以限製,將會毀滅人類,這不是危言聳聽。一旦AI被授予自我發展的能力,就可能不受人類的控製,到時就可能會導致大規模災難。
novtim2
發表評論於 2023-02-18 14:29:24
除非他是開發人員,要不然,花數個小時和計算機聊天?他是不是請不起精神病醫生了???
相信事實
發表評論於 2023-02-18 14:18:46
如果沒有任何限製,這倒是可能引起嚴重的問題。它能示愛,當然更可能誘惑你犯罪啊,能讓你離婚,怎麽不可能讓你殺人?它的“知識”水平可以超過任何人,一旦被引導歪了,無法想象會發生什麽。
令胡衝
發表評論於 2023-02-18 14:11:37
大叔的心靈這麽脆弱,倒真像一個困在大叔身體裏的失良少年。
seator
發表評論於 2023-02-18 14:11:32
有點懷疑這個文章的真實性
體製內
發表評論於 2023-02-18 14:06:55
不能自拔,笑死了
頁次:
1
/1
每頁
50
條記錄, 本頁顯示
1
到
16
, 共
16
分頁: [
1
]