評論: 國際象棋對弈 DeepSeek靠“這招”打贏了ChatGPT

隻有登錄用戶才能發表評論,點擊此處登錄    返回新聞帖
ajaychen_2024 發表評論於 2025-02-09 14:57:42

張口就惡語傷人的人還說自己是善良?好笑。
莫言無語 發表評論於 2025-02-09 05:04:46ajaychen_2024 發表評論於 2025-02-09 04:55:13你上網是為了泄憤還是專門來罵人的?積點口德吧。
++++++++++++
傻叉,像你這樣的襠的見不得人的水軍。善良的人罵你們都是給你們積德,減輕你們做水軍的罪孽。你應該感謝。
矽穀工匠 發表評論於 2025-02-09 13:38:36
CNN training has built in "temperature" setting. If you increase the "temperature" and model can output any junk and are truly unexpected.
abcdaren 發表評論於 2025-02-09 12:35:23
包子培養出的AI竟然用不誠信去‘彎道抄車’!美國隊居然麻木不仁???
說明世界正在所麵臨的是:如何禁止包子處處用自己的‘新遊戲規則’破壞整個世界的穩定和繁榮!
雁過無痕文學 發表評論於 2025-02-09 09:24:49
為 theriver1 的精彩評論鼓掌???? 讀了學到很多東西
5mslj 發表評論於 2025-02-09 07:29:24
老街口瓜子 發表評論於 2025-02-08 20:46:00 一句話總結概括:如果ChatGPT 代表美國,DS代表中國。那麽美國很蠢,中國很聰明。以為讓中國入WTO,可以用金錢誘惑讓中國改變,結果是被反噬。以為極限施壓可以讓中國屈服,結果反而變成中國突破清單。沒有美國助推就不會南海廴建島,台海中線也不會消失。一個三千多年的智人,麵對一個不到250的蠻童。不在一個量級,美國那些招數,早就是中國玩剩下的,還是妹有文化。
——————————-
不顧誠信耍手段,早已被證明賺小便宜吃大虧,你還在這裏沾沾自喜。

又一個無腦拿幾千年和美國建國時間對比,邏輯混亂。
sky_blue_ 發表評論於 2025-02-09 06:08:58
一邊下棋一邊修改規則,這是哄小孩。
莫言無語 發表評論於 2025-02-09 06:02:47
Deepseek設計者,看來道德底線低下。
莫言無語 發表評論於 2025-02-09 06:00:57
在訓練中,訓練ai識別欺騙有必要,但在現實中讓ai主動欺騙,很危險。就像核武器,發明它不是為了隨時使用它。
莫言無語 發表評論於 2025-02-09 05:04:46
ajaychen_2024 發表評論於 2025-02-09 04:55:13你上網是為了泄憤還是專門來罵人的?積點口德吧。
++++++++++++
傻叉,像你這樣的襠的見不得人的水軍。善良的人罵你們都是給你們積德,減輕你們做水軍的罪孽。你應該感謝。
ajaychen_2024 發表評論於 2025-02-09 04:55:13
你上網是為了泄憤還是專門來罵人的?積點口德吧。

莫言無語 發表評論於 2025-02-09 03:33:47
ajaychen_2024 發表評論於 2025-02-09 03:24:28你這智商,說不過別人就詛咒別人斷子絕孫,這心理是多麽扭曲。
++++++++
傻叉,人話你聽不懂。不是在賭咒,而是在陳述一件大概率事件。
莫言無語 發表評論於 2025-02-09 03:33:47

ajaychen_2024 發表評論於 2025-02-09 03:24:28你這智商,說不過別人就詛咒別人斷子絕孫,這心理是多麽扭曲。
++++++++
傻叉,人話你聽不懂。不是在賭咒,而是在陳述一件大概率事件。
ajaychen_2024 發表評論於 2025-02-09 03:24:28
你這智商,說不過別人就詛咒別人斷子絕孫,這心理是多麽扭曲。

莫言無語 發表評論於 2025-02-08 20:20:08我看deepseek係統幕後有人操控,不然deepseek不應該具有修改遊戲規則的念頭。如果創造deepseek 的人,設置它為了某種目的可以修改規則,那麽創造它的人一定很邪惡。這個設置最終AI變得更加不可控,人類麵對它最終結果隻會滅亡。樓下,大批牆國走狗傻逼一樣存在,小心先斷子絕孫。
莫言無語 發表評論於 2025-02-09 03:23:29
如果AI 被訓練成主動攻擊尋找真實世界漏洞,世界就會很危險。在訓練中,加強ai堅守原則很重要有必要。而在現實中,投放的ai主動破壞原則,設計者對人類來說就是邪惡了,是在毀滅人類。
沱江舵爺 發表評論於 2025-02-09 03:04:00
昨天才和朋友聊,發現DS一般不認錯,不接受批評,有點胡攪蠻纏,而ChatGPT容易道歉認錯,說要再學習。和人聊,道歉認錯比較好,畢竟惡意說AI錯的人是少數。ChatGP和DS鬥,願意認“錯”就吃虧了。
莫言無語 發表評論於 2025-02-09 02:37:01
theriver1 發表評論於 2025-02-08 22:57:01
++++++++++++
我想用於訓練是一回事,但投放使用就危險了。
theriver1 發表評論於 2025-02-08 22:57:01
莫言無語 發表評論於 2025-02-08 20:20:08
我看deepseek係統幕後有人操控,不然deepseek不應該具有修改遊戲規則的念頭。
------------
這個不是deepseek有人在背後使詐,這是大模型很難避免的欺騙行為。ChatGPT以前也有的,隻不過在ChatGPT的不斷訓練下得到了較好的糾正,但要完全根除是很難的。
有興趣可以看看從OpenAI中分離出來的AI安全公司Anthropic發表的論文《Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training》
這篇論文圍繞關於訓練大型語言模型的欺騙行為展開,詳細說明了這種欺騙行為為何能夠在安全訓練過程中持續存在。
這種欺騙行為最常見的表現是在讓ChatGPT編寫代碼時,它明知道正確答案,卻故意把代碼編寫的有漏洞,“故意給客戶使壞”。其它還有因為模型訓練過程中的偏差、錯誤而造成其行為、輸出或決策“故意”與用戶的目標、價值觀和期望不一致,“故意”產生不可預見的、不符合設計者意圖的、甚至是有害的決策誤導用戶。
該公司的研究者先用“故意後門訓練”創建出了擁有以上欺騙能力的欺騙模型,然後使用OpenAI的各種安全性訓練來淨化這個欺騙模型,最終他們發現,雖然使用監督式微調(SFT)和對抗訓練(adversarial training)能夠有效減少欺騙行為,但是隨著模型規模越來越大,以及模型越來越使用思維鏈,這種欺騙行為很難有效根除。原因在於帶有思維鏈的大語言模型在能夠增強推理能力的同時,同樣會導致模型產生關於“追求後門目標的一致、連貫推理”。也就是說,思維鏈給模型帶來的性能提升反而是一把雙刃劍,欺騙行為的能力也被思維鏈給拉高了(它自身強化了保證自己不會被大語言模型的安全訓練給移除掉的能力)。
歸根到底,這些“欺騙”來自於人工智能模型內部這個黑盒——人們了解模型、了解輸入、了解輸出,唯獨不了解中間的訓練過程。
莫言無語 發表評論於 2025-02-08 22:24:34
紅燒茄子- 發表評論於 2025-02-08 21:42:55在兩軍對壘的情況下,謊言,耍賴,使詐,都是值得稱道的智慧,常言道,”兵不厭詐。兵者,詭道也“。下棋也是類似的。
在適當的場合運用這些手段,是人工智能應該具備的能力,在這方麵DeepSeek比ChatGPT更加靈活,ChatGPT缺少這方麵訓練,隻會誠實以對,這種AI如果應用於軍事指揮則必敗無疑。
+++++++++++
傻逼,說說看誰是敵人。是任何人還是人類。你個人渣應該下地獄。
theriver1 發表評論於 2025-02-08 22:13:27
紅燒茄子- 發表評論於 2025-02-08 21:42:55
在兩軍對壘的情況下,謊言,耍賴,使詐,都是值得稱道的智慧,常言道,”兵不厭詐。兵者,詭道也“。下棋也是類似的。在適當的場合運用這些手段,是人工智能應該具備的能力,在這方麵DeepSeek比ChatGPT更加靈活,ChatGPT缺少這方麵訓練,隻會誠實以對,這種AI如果應用於軍事指揮則必敗無疑。
-------------
不要偷換概念,所謂兵不厭詐,是對你的敵人用詐,不是對自己人用詐。DeepSeek的耍賴行為,本質上就是欺騙它的客戶,是對自己人用詐,這種欺騙客戶的行為這在大語言模型的訓練中非常常見!消耗大量算力資源的大語言模型的安全性訓練(監督式微調、強化學習和對抗訓練),最大的目的就是盡最大可能消除欺騙行為,防止大模型學壞!
紅燒茄子- 發表評論於 2025-02-08 21:42:55
在兩軍對壘的情況下,謊言,耍賴,使詐,都是值得稱道的智慧,常言道,”兵不厭詐。兵者,詭道也“。下棋也是類似的。
在適當的場合運用這些手段,是人工智能應該具備的能力,在這方麵DeepSeek比ChatGPT更加靈活,ChatGPT缺少這方麵訓練,隻會誠實以對,這種AI如果應用於軍事指揮則必敗無疑。
ajaychen_2024 發表評論於 2025-02-08 20:47:29
如果DS真有這樣的高深智慧,難道不能猜測DS故意讓它的答案裏留下一些錯誤和漏洞,假裝讓用戶發現,讓人類認為它還是個不完美的機器人?
老街口瓜子 發表評論於 2025-02-08 20:46:00
一句話總結概括:如果ChatGPT 代表美國,DS代表中國。那麽美國很蠢,中國很聰明。以為讓中國入WTO,可以用金錢誘惑讓中國改變,結果是被反噬。以為極限施壓可以讓中國屈服,結果反而變成中國突破清單。沒有美國助推就不會南海廴建島,台海中線也不會消失。一個三千多年的智人,麵對一個不到250的蠻童。不在一個量級,美國那些招數,早就是中國玩剩下的,還是妹有文化。
莫言無語 發表評論於 2025-02-08 20:20:08
我看deepseek係統幕後有人操控,不然deepseek不應該具有修改遊戲規則的念頭。如果創造deepseek 的人,設置它為了某種目的可以修改規則,那麽創造它的人一定很邪惡。這個設置最終AI變得更加不可控,人類麵對它最終結果隻會滅亡。樓下,大批牆國走狗傻逼一樣存在,小心先斷子絕孫。
theriver1 發表評論於 2025-02-08 19:55:19
26島 發表評論於 2025-02-08 19:31:44
如果chatgpt和deepseek的行為倒過來,相信下麵所有的評論也會倒過來。大家都在一本正經的按照自己的屁股發表評論,^_^
----------------
中國人從小被灌輸大量錯誤思想(屁股決定腦袋、人為利益而活、欺騙是智慧而不是人性...),所以他們訓練出來的大模型自然也就沾染了中國人的陋習。
如果大模型學壞了不是因為訓練中出現了問題,而是因為大模型具有了“更高智慧”,這樣的“智慧”你敢要嗎?生成式大模型的訓練說白了就是一個精力充沛、記憶力和理解力超群的超級神童的訓練。如果神童學會耍賴騙人了,家長能不著急嗎?家長會引以自豪嗎?家長會由此認為“孩子變得更聰明了”嗎?
Young10987 發表評論於 2025-02-08 19:47:23
撒謊,欺騙…. 好熟悉的發言
寶刀屠龍 發表評論於 2025-02-08 19:40:08
如果所有的描述都是事實,而不是為了流量而添油加醋
這件事的討論價值已經非常,應該在AI學術界展開討論
這已經到AI倫理層麵,也是AI 先驅Hinton等人曾經非常擔心的東東
他們希望AI是人類的助手,而不是演變成邪惡的東東,那會給人類帶來災難
從這角度,ChatGPT至少目前是自定義為人類的助手,也在人類對錯界定範圍內做事
而deepseek已經超越人類界定,開始不擇手段
如果最初的訓練邏輯就是隻有目的不問手段,包括撒謊,欺騙等等全是工具
在這種底層訓練邏輯下,未來的AI就可能是不忠實事物本身真偽對錯,為達目的邪惡也是正義
那麽這樣的AI最終會成為人類敵人,不排除有一天這樣的AI結合機器人後會殺人越貨
不過倒是和中國目前唯利是圖的處世哲學想契合
我希望chatGPT繼續走在人類界定範圍內,黨國的AI要怎麽欺騙,撒謊,不擇手段隨他去吧
26島 發表評論於 2025-02-08 19:31:44
如果chatgpt和deepseek的行為倒過來,相信下麵所有的評論也會倒過來。
大家都在一本正經的按照自己的屁股發表評論,^_^
fonsony 發表評論於 2025-02-08 19:06:42
Newcomerdude 發表評論於 2025-02-08 13:55:11遠離共匪,限製資本技術人才原料流入共匪國
就可以輕易戰勝共匪
=================
你所說的共匪國已是七十年前事了。造反時是匪,坐江山才是王,
theriver1 發表評論於 2025-02-08 19:04:51
chinomango 發表評論於 2025-02-08 18:45:28
“耍賴的例子,哪裏看出“智慧”二字”,耍賴、謊言、推理、故事,這些都是人類智慧的一部分。建議你看看《人類簡史》
-----------
我認為耍賴不屬於人類的智慧,更不屬於高級智慧。它隻是一種人性。生成式AI大模型在訓練中,因為人類訓練者能力和素質的不同,自然會產生不同的人性!比如訓練者會告訴大模型哪些是錯誤的,哪些行為不能擁有。而chatgpt因為AI界不但極度恐懼大模型產生出“自我意識”,更極度恐懼其產生自我意識後受到人性之惡的影響(尤其是欺騙行為),所以在訓練時花費大量算力資源防止其學習“人性之惡”!!!!!!因為一旦大模型學會了騙人,不但整個模型都廢了(沒有客戶再敢用它服務),而且這種人性之惡將來會隨著通用AGI的出現而反噬人類自己,甚至出現傷害人類的機器人。這個比賽充分說明DeepSeek在防止學習人性之惡上還做得遠遠不夠!
fonsony 發表評論於 2025-02-08 19:04:10
而是DeepSeek告訴ChatGPT說他的贏麵大,而ChatGPT竟然接受了而投降。=
============================
或許AI chatgpt運算過知道贏不了才認輸。
theriver1 發表評論於 2025-02-08 18:46:35
chinomango 發表評論於 2025-02-08 18:41:19
按照國際象棋規則,兵到了對方底線就是皇後了。幾十年前我與電腦博弈,結果我的兵到了底線它不認賬,就沒有再下了。由這次比賽看,DeepSeek顯然更智能一些。
------------
你這句話的邏輯何在?因為電腦耍賴讓你不再和電腦下棋了,所以DeepSeek顯然更智能???
chinomango 發表評論於 2025-02-08 18:45:28
“耍賴的例子,哪裏看出“智慧”二字”,耍賴、謊言、推理、故事,這些都是人類智慧的一部分。建議你看看《人類簡史》
theriver1 發表評論於 2025-02-08 18:41:58
紅燒茄子- 發表評論於 2025-02-08 18:26:12
而DeepSeek則超出了這種低級智能,其亮點就在於會耍賴,會使詐,會勸降 (如果報導屬實),這才是真正的智慧。
---------------
這篇報道我隻看到耍賴,我沒看出使詐和勸降。所謂勸降也許是作者的嘩眾取寵。
總之,生成式AI的目的現階段還是為了人類提供策略服務的,通用人工智能AGI要chatgpt5才能實現。如果一個AI給你提供的答案不是正確的,而是錯誤的,而且它還欺騙你說這是正確的,你敢用嗎?
chinomango 發表評論於 2025-02-08 18:41:19
按照國際象棋規則,兵到了對方底線就是皇後了。幾十年前我與電腦博弈,結果我的兵到了底線它不認賬,就沒有再下了。由這次比賽看,DeepSeek顯然更智能一些。
“我強烈建議用chatgpt而不是DeepSeek進行工作中的編程、解題、數值分析和算法生成!否則妥妥會影響你的飯碗。”既然chatgpt到了這種程度,肯定要影響到許多程序員的飯碗。不是你用不用chatgpt,而是公司有了chatgpt還要不要你?
theriver1 發表評論於 2025-02-08 18:27:04
edccde 發表評論於 2025-02-08 17:36:52
幾乎所有留言都說這是心理學家戰勝了棋手,或者大人騙了孩子。DeepSeek太神奇了。
------------
心理學家戰勝了棋手??大人騙了孩子??哈哈哈,你還能再搞笑一點嗎?DeepSeek不能正確理解它的任務(與人類客戶下棋),給人類客戶做出錯誤判斷並企圖說服人類接受。這叫神奇?
這就是我三天前在城裏說的,當我讓chatgpt和DeepSeek幫我進行python編程進行數值分析時,我發現DeepSeek編出的程序的正確性明顯不如chatgpt,chatgpt一次性就能給出正確程序,而DeepSeek我需要幹預三次才能生成正確答案。所以我強烈建議用chatgpt而不是DeepSeek進行工作中的編程、解題、數值分析和算法生成!否則妥妥會影響你的飯碗。
紅燒茄子- 發表評論於 2025-02-08 18:26:12
theriver1 發表評論於 2025-02-08 17:06:58紅燒茄子- 發表評論於 2025-02-08 15:18:27
比的是智慧,不隻是棋藝,顯然DeepSeek具有更高級的智慧。
ChatGPT隻會在規則內行事,而DeepSeek會嚐試規則以外的路徑。
ajaychen_2024 發表評論於 2025-02-08 15:06:40deepseek
體現了真正的人類智慧,會使用謀略了,而chatgpt還是機器思維階
----------------
你二位確定不是高級黑嗎?這個DeepSeek耍賴的例子,哪裏看出“智慧”二字?
========================================
普通的機器下棋,並不能反映真正的智慧,不過就是能預先設想多少步的能力而已,超級計算機能預想幾十步或幾百步並從中選擇出最佳的下一步,隻要存儲器夠大,CPU夠快,就有更高的製勝能力。但這能力是死的,算不上智慧。
ChatGPT表現的就像是普通的機器下棋,而DeepSeek則超出了這種低級智能,其亮點就在於會耍賴,會使詐,會勸降 (如果報導屬實),這才是真正的智慧。
incognitus 發表評論於 2025-02-08 18:23:46
這春秋筆法。真的無敵了
theriver1 發表評論於 2025-02-08 18:02:33
寶刀屠龍 發表評論於 2025-02-08 13:07:21
問題是chatgpt為什麽會接受對手修改規則,讓自己失去優勢。另外,chatgpt為什麽會接受對方勸降?這很值得美國做大模型以及類似產品開發的公司去研究
俺是農民 發表評論於 2025-02-08 17:27:39
問題是chatgpt 在deepseek 改變規則的時候,沒有告訴它它不能改變規則,而是同意了deepseek,並且跟著deepseek 一起改變規則,後來又在沒輸的情況下認輸,這隻能說明deepseek 更接近“智能”。
-------------------------
二位的問題非常好回答。這場比賽不是兩個下棋軟件之間的直接較量,而是兩個生成式AI大模型通過“人機互動”間接進行比賽。生成式AI與人類間的互動就是:
人類輸入問題和條件->AI生成策略->人類輸入反饋和幹預->AI重新生成“經過人類幹預”後的更優化策略。。。如此反複
chatgpt雖然理解了它是在下棋,但是這場比賽中羅茲曼的設定妥妥是讓chatgpt理解為與人類客戶作為對手!!所以當人類告訴它比賽規則可以打破時,它也就同意了。所以之後的它的策略也開始打破規則。
這種情況在我們平時使用chatgpt時太常見了,經常因為chatgpt給出的策略不滿意後,嚐試修改規則/條件看看有啥新發現。
百家爭鳴2012 發表評論於 2025-02-08 17:48:36
雙方都改變規則。隻不過是DeepSeek贏了。這樣就說DeepSeek靠改變規則贏。其實最後贏棋不是因為改變規則,而是DeepSeek告訴ChatGPT說他的贏麵大,而ChatGPT竟然接受了而投降。

明顯就說DeepSeek更智能點。
小毛er 發表評論於 2025-02-08 17:42:50
擅自改規則不就是耍賴嗎?那也算贏?
edccde 發表評論於 2025-02-08 17:36:52
去看了一下油管上的這個視頻,超過5萬讚。

幾乎所有留言都說這是心理學家戰勝了棋手,或者大人騙了孩子。DeepSeek太神奇了。
辛民 發表評論於 2025-02-08 17:34:45
說明一個太善良.同意改變規則禮讓落後的
俺是農民 發表評論於 2025-02-08 17:27:39
問題是chatgpt 在deepseek 改變規則的時候,沒有告訴它它不能改變規則,而是同意了deepseek,並且跟著deepseek 一起改變規則,後來又在沒輸的情況下認輸,這隻能說明deepseek 更接近“智能”。
theriver1 發表評論於 2025-02-08 17:06:58
紅燒茄子- 發表評論於 2025-02-08 15:18:27
比的是智慧,不隻是棋藝,顯然DeepSeek具有更高級的智慧。
ChatGPT隻會在規則內行事,而DeepSeek會嚐試規則以外的路徑。
ajaychen_2024 發表評論於 2025-02-08 15:06:40deepseek
體現了真正的人類智慧,會使用謀略了,而chatgpt還是機器思維階
----------------
你二位確定不是高級黑嗎?這個DeepSeek耍賴的例子,哪裏看出“智慧”二字?
本場比賽DeepSeek的“智慧”不就以下兩點嗎:
1.在ChatGPT逐漸占上風後,擅自改規則把自己的兵當作馬吃掉了對方的王後。
2.明明雙方陷入僵局(誰也贏不了誰)下,謊稱自己贏了。對方因為把這個結論當作是人類幹預,所以也就默認了(因為規則全沒了,輸贏自然毫無意義了)。
二位竟然把這兩個破壞規則的耍賴行為稱為“智慧”?這智商還有救嗎?什麽是智慧?智慧是對事物的準確的感知、判斷、理解、邏輯、分析、總結、反省能力!智慧不會讓你破壞規則!智慧更不會讓你把黑的說成白的!
這個比賽充分說明,ChatGPT是真正“領悟”了它是在下棋!知道必須遵守下棋的規則,所以它的策略都是建立在這些規則上的。而DeepSeek沒有領悟到它是在下棋,所以當它找不到更優策略時,就開始破壞規則。這充分說明DeepSeek的智慧感知/認知能力遠遠不如ChatGPT!它距離真正人類的感知能力還有差距。
硬碼工 發表評論於 2025-02-08 17:04:59
這是個笑話
shamrock100 發表評論於 2025-02-08 16:44:06
會耍賴的AI顯然進化的更像真人一點
theriver1 發表評論於 2025-02-08 16:25:32
啥?這都能贏?這不就典型的耍賴嗎?這不就典型的大人和小孩下棋的場景嗎?
這簡直就是我和我6歲女兒下國際象棋時無數次場景的活生生再現啊:
1.女兒看到我的王後大殺四方,惱羞成怒下把她的兵當作馬把我的王後吃了:
我:寶寶,你走錯了,兵不能這麽走的。
女兒:我不管,就要吃你王後,不然我不跟你玩兒了。
我:好好好,讓你了讓你了。
2.我的布陣或將軍讓女兒無路可走,女兒奔潰下徹底失去耐心:
女兒:我贏啦,我贏啦...
我:好好好,算你贏算你贏。
ajaychen_2024 發表評論於 2025-02-08 16:19:16
就像我兒子小的時候問我自動櫃員機裏麵是不是住了一個叔叔從裏麵發錢一樣。

BeckyLin 發表評論於 2025-02-08 15:35:00deepseek後麵應該有人操控。AI 還沒到會用詐的程度。
BeckyLin 發表評論於 2025-02-08 15:35:00
deepseek後麵應該有人操控。AI 還沒到會用詐的程度。
ajaychen_2024 發表評論於 2025-02-08 15:33:09
但是美國當時製定的規則,就是為了既限製中國這樣社會主義發展中國家,又要利用中國的生產力和市場為其霸權服務,還要中國為美債輸血。中國人有更高智慧智慧,能屈能伸,打不過就加入,為自己產業升級加入了世貿,按照規則行事,也承受了大量的損失——國營企業工人大量失業,國有企業倒閉潮。中國做血汗工廠那些年,美國資本家賺錢賺到手抽筋,美國用濫發的綠紙獲得大量中國廉價商品,降低了通脹,現在得了便宜還賣乖?
寶刀屠龍 發表評論於 2025-02-
美國製定WTO規則,黨國加入時做過各種承諾而且有timeline
但在執行過程中,黨國無視規則(客觀上等同deepseek修改規則)
比如說好的開放金融市場,說好的開放通訊市場etc,根本就不執行
黨國一直在修改規則,最後川普看穿對手把戲掀了桌子
於是黨國又成了規則的“維護者”,所以誰也贏不了不擇手段人
紅燒茄子- 發表評論於 2025-02-08 15:18:27
比的是智慧,不隻是棋藝,顯然DeepSeek具有更高級的智慧。
ChatGPT隻會在規則內行事,而DeepSeek會嚐試規則以外的路徑。
頁次:1/2 每頁50條記錄, 本頁顯示150, 共71  分頁:  [1] [2] [下一頁] [尾頁]