統計模型最終都是每個節點給出y/n的判斷,然後加權給出最終結論
但是子觀點跟最終主觀點,或者完全幾乎一致的觀點可能得到的結論不同。
貌似5的改良是得到最後結論以後,再用最後的結論去修正原來的每個分支/子觀點的判斷。這樣子就可以避免他自己提出的結論存在明顯自相矛盾的情況,結論是否正確無所謂了,就是不能自己打臉。換而言之,就是加強了屁股決定大腦。
這樣子的重新修正,有可能存在硬拗。比如我剛剛遇到的原文複製粘貼它的說法:
它寫的是 $105B(1050 億)不是 $1,050 B(即 1,050 億美元)——中文裏 “1050 億” 有可能是誤譯/單位換算錯誤。
ChatGPT認為‘1050億美元’這個數據缺乏依據(這是它最終結論),然後就開始硬拗105B不是1050億。