2011 (32)
2014 (53)
2016 (53)
2017 (55)
2018 (98)
2019 (88)
2020 (67)
2021 (80)
2022 (133)
2023 (156)
2024 (100)
2025 (3)
戴榕菁
昨天打開微軟的Edge時直接被帶到了Bing的chat bot進行chat。這是自ChatGpt火爆後我第一次體驗和chat bot直接對話,因此我就嚐試著用哲學來刺探它的弱點。在對話中我發現了人工智能對話係統的一個有趣的致命傷:它直接繼承了人類思維中的膚淺的缺點,而不是如人們普遍吹噓的那樣發揮電腦的優勢來客服人類思維的弱點。
我問它在與人的對話中什麽是不可逾越的障礙。它回答說是語言的含糊性(ambiguity)。我回答說:語言的含糊性並不是完全不可逾越的,因為語言的含糊性通常也具有一定的特征,而且具體語言環境下的含糊性所涉及的可能性不是無限的而是有限的,而作為人工智能,對你來說,隻要是有限的而不是無限的,你就應該能夠將有限的可能都列出來,然後一個個地向對方提問,以排除對方最初語言中的含糊之處,以得到對方的真正的原意。
結果那個chat bot愣是不服,舉出一大套理由告訴我含糊性(即模棱兩可或模棱多可)是多麽難以克服。。。。它就是不去認證考慮一下我所提出的方案。我反複給它解釋,它還是不接受,且告訴我列舉各種可能性對它來說是不適宜的。我直接告訴它說:雖然你能模仿人類的對話是一種優點,但是當人類來找你幫忙時,他們最關心的不是你能否模仿人類對話,而是你能否幫他們解決問題,因此解決問題才是你首要的職責,模仿人類說話方式是次要的。結果它直接中斷了該對話。
遺憾的是我可能無意中refresh了一下頁麵,所以未能最後將整個對話打印下來。不過整個對話給我最大的印象是chat bot已經學會了人類的懶惰和狡辯的壞毛病。它的辯論方式在很大程度上與網上的無知網軍們思維方式很象。當然,還是看得出它與網軍的區別的。
可見,所謂的人工智能對話在它學習的過程中已經學會了人類的壞毛病。。。。。。