Scott Gu

不公正,很快會聽不到真相。馬爾薩斯模型及改進型和認為人口控製類似火箭控製是數學和控製理論的嚴重錯誤。現在購買力和公司盈利全靠巨額政府債務泡沫的信用杠杆放大效應支撐。指鹿為馬會開啟潘多拉魔盒,使製度成為笑料,毀滅文明。
正文

關於F-35最新事故報告和人機藕合

(2024-11-02 23:05:25) 下一個

對2023年9月17日墜毀在南卡羅來納州的F-35B調查報告剛公布。

飛機有沒有指示器立即用顯著方式告訴飛行員備用係統正常、正在接管飛機?不應該等切換完成某個階段才告訴。這種特別重要的功能應該由特殊硬件結構保障,以避免主控係統和軟件因各種原因延誤甚至失敗。這是關鍵問題,應該調查清楚。

如果要雙重保險,還可以再加個特殊硬件結構伺機立即發指令表示下列意思:備用係統啟動、接管失敗,請立即棄機。當然實際中應該更簡潔地表達,或用更簡短但廣為飛行員所知的代號,以免囉裏囉唆延誤時機。

上億美元的飛機和飛行員都是寶貴財富。加這點小硬件結構算什麽?

這兩個子係統的邏輯結構清晰、可靠,而不是一堆亂哄哄的指令中的兩個,才能使飛行員像熟悉降落傘一樣熟悉它們、反應敏捷穩定。其它指令的邏輯結構也應該盡可能清晰,以免讓飛行員費心分神、擾亂戰鬥。

這是戰機,備用係統出問題的概率並不小。但也可能是監控係統出問題,飛機本身沒大問題。在很多情況下該讓飛行員作判斷,隻有在特殊情況下才自動彈座、彈傘。

以前波音737Max的兩次事故,是人類飛行員和自動駕駛爭奪控製權引起的。和這次F-35B的事故都屬於係統設計上的人機藕合失敗。

無人汽車的自動駕駛因為得跟本車以外的人類智力密集競爭,遠比民用客機以及和平環境裏軍機自動駕駛複雜。

筆者不研究戰鬥環境裏的軍機。但從計算機無法模擬鼠腦和貓腦、無法達到鼠和貓的智力,以及Safe Street Rebel group發現的在無人汽車hood上放個traffic cone就能讓它一動不動、隻能等人解救的情況看,對戰鬥環境裏軍機的自動駕駛不能過於樂觀,包括人類可能利用特殊無人飛行器對昂貴軍機事先設置好邏輯圈套。而人工智能(包括自動駕駛)的計算機邏輯,都是簡單邏輯。

所以,借軍工炒作人工智能也該慎重。而對飛行員是否公正更是重要,不公正科技就會走錯方向。指鹿為馬則導致秦朝末年的支柱章邯投降。

互聯網上有對此次事故報告的報道: https://www.military.com/daily-news/2024/10/31/pilot-of-f-35-crashed-south-carolina-ejected-after-malfunctions-disorientation.html

好像已有十架左右的F-35墜毀。對更近的2024年5月28日墜毀事件,尚未聽說調查報告。

筆者研究科學邏輯和智力科學的基礎理論。跟計算機和人工智能的人機藕合隻是這些理論的一個次要應用,但也很重要。

[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.