2021 (241)
2022 (436)
2023 (328)
2024 (325)
OpenEvidence 是一個循證醫學解析引擎,它的目標是把醫生、研究者或患者的自然語言問題,快速轉化為結構化、可追溯的循證答案。
核心技術
-- PICO 框架:把自然語言問題拆解為標準化的臨床研究格式
P = Patient / Problem(患者或臨床問題)
I = Intervention(幹預措施)
C = Comparison(對照或替代方案)
O = Outcome(結局指標)
這樣能精確捕捉臨床問題,而不是僅依賴關鍵詞。
-- BERT / BioBERT / PubMedBERT
BERT = Bidirectional Encoder Representations from Transformers,由 Google 在 2018 年提出,是第一個真正意義上的雙向 Transformer 語言模型,在自然語言理解領域引發革命。
BioBERT = 在大規模生物醫學文獻(PubMed, PMC)上二次預訓練的 BERT,專門優化醫學語義。
PubMedBERT = 在 PubMed 全量數據上從零訓練的模型,對專業醫學術語的理解更深。
有了 Google 的 BERT 奠定的基礎,BioBERT 和 PubMedBERT 才能在醫學領域實現高精度的語義理解。它們使得 OpenEvidence 的檢索不僅能識別關鍵詞,還能理解複雜醫學語境。
-- 證據識別與分級
係統通過 NER 和分類模型,自動識別研究類型(RCT、Cohort、Meta-analysis),並嵌入 GRADE 方法學,把證據分為 High / Moderate / Low。
這是傳統數據庫(PubMed, Cochrane)所欠缺的。
-- RAG 框架(Retrieval-Augmented Generation)
把檢索到的文獻段落傳遞給 LLM,總結時:
每條結論都附帶 PMID 或 DOI,確保可追溯
避免模型幻覺,隻基於真實證據
輸出雙層風格:專業版(含統計學細節:樣本量、風險比、置信區間等)和科普版(簡明結論,便於患者理解)
應用場景
-- 臨床決策支持:醫生會診時查詢“糖尿病藥物是否降低癡呆風險”,幾秒內返回 Meta-analysis 結果和風險比。
-- 科研:研究者快速梳理某一機製的證據全景。
-- 藥物研發:企業利用係統判斷藥物重定位可行性,提高研發效率。
-- 患者教育:提供“專業版+科普版”雙層答案,縮小信息差。
差異化價值
與通用工具(如 ChatGPT)相比,OpenEvidence 不隻是做“總結”,而是實現了從問題到結論的完整閉環:
PICO 抽取 → 臨床問題結構化
BioBERT / PubMedBERT → 精準語義檢索
證據識別 + GRADE → 判定證據質量
RAG 總結 → 生成結構化、可追溯的答案
為什麽能拿到 25 億美元估值
因為 OpenEvidence 是第一個把 PICO、GRADE、Google 的 BERT 模型及其醫學變體(BioBERT、PubMedBERT)與 RAG 架構整合在一起的循證醫學平台。它不僅提升了醫生的臨床決策效率,也服務科研、藥物研發和患者教育,真正解決了“海量文獻 → 臨床可用證據”這最後一公裏的問題。