對2023年9月17日墜毀在南卡羅來納州的F-35B調查報告剛公布。
飛機有沒有指示器立即用顯著方式告訴飛行員備用係統正常、正在接管飛機?不應該等切換完成某個階段才告訴。這種特別重要的功能應該由特殊硬件結構保障,以避免主控係統和軟件因各種原因延誤甚至失敗。這是關鍵問題,應該調查清楚。
如果要雙重保險,還可以再加個特殊硬件結構伺機立即發指令表示下列意思:備用係統啟動、接管失敗,請立即棄機。當然實際中應該更簡潔地表達,或用更簡短但廣為飛行員所知的代號,以免囉裏囉唆延誤時機。
上億美元的飛機和飛行員都是寶貴財富。加這點小硬件結構算什麽?
這兩個子係統的邏輯結構清晰、可靠,而不是一堆亂哄哄的指令中的兩個,才能使飛行員像熟悉降落傘一樣熟悉它們、反應敏捷穩定。其它指令的邏輯結構也應該盡可能清晰,以免讓飛行員費心分神、擾亂戰鬥。
這是戰機,備用係統出問題的概率並不小。但也可能是監控係統出問題,飛機本身沒大問題。在很多情況下該讓飛行員作判斷,隻有在特殊情況下才自動彈座、彈傘。
以前波音737Max的兩次事故,是人類飛行員和自動駕駛爭奪控製權引起的。和這次F-35B的事故都屬於係統設計上的人機藕合失敗。
無人汽車的自動駕駛因為得跟本車以外的人類智力密集競爭,遠比民用客機以及和平環境裏軍機自動駕駛複雜。
筆者不研究戰鬥環境裏的軍機。但從計算機無法模擬鼠腦和貓腦、無法達到鼠和貓的智力,以及Safe Street Rebel group發現的在無人汽車hood上放個traffic cone就能讓它一動不動、隻能等人解救的情況看,對戰鬥環境裏軍機的自動駕駛不能過於樂觀,包括人類可能利用特殊無人飛行器對昂貴軍機事先設置好邏輯圈套。而人工智能(包括自動駕駛)的計算機邏輯,都是簡單邏輯。
所以,借軍工炒作人工智能也該慎重。而對飛行員是否公正更是重要,不公正科技就會走錯方向。指鹿為馬則導致秦朝末年的支柱章邯投降。
互聯網上有對此次事故報告的報道: https://www.military.com/daily-news/2024/10/31/pilot-of-f-35-crashed-south-carolina-ejected-after-malfunctions-disorientation.html。
好像已有十架左右的F-35墜毀。對更近的2024年5月28日墜毀事件,尚未聽說調查報告。
筆者研究科學邏輯和智力科學的基礎理論。跟計算機和人工智能的人機藕合隻是這些理論的一個次要應用,但也很重要。