原始文章

臨床試驗對醫學進步和病人獲得新療法非常重要,但像 ClinicalTrials.gov 的複雜語言讓人難以理解。本研究探討大型語言模型(LLMs),特別是 GPT-4,如何改善病人對癌症臨床試驗的教育。研究人員利用知情同意書,透過兩種 AI 方法創建易懂的摘要,並設計多選題評估病人理解。結果顯示,AI 生成的摘要更易讀,且超過 80% 的參與者表示理解更好。儘管 LLMs 有助於增強病人參與,但仍需解決準確性和倫理問題,未來應專注於改善 AI 流程和遵循法規。 PubMed DOI


站上相關主題文章列表

醫療同意書的可讀性普遍高於患者的平均閱讀水平,這對知情同意造成挑戰,並可能影響臨床試驗的參與者留存率。研究分析了截至2023年1月1日美國的聯邦資助臨床試驗同意書,發現其平均Flesch-Kincaid年級水平為12.0,遠高於美國成年人通常的8年級水平。可讀性每增加一級,退選率就增加16%。使用大型語言模型簡化同意書後,能在保留法律內容的同時降低可讀性,顯示改善可讀性對提升參與度的重要性。該研究無外部資金,作者無利益衝突。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是GPT-4,在製作癌症臨床試驗教育內容的潛力,旨在提升患者的理解。研究從ClinicalTrials.gov獲取知情同意書,生成簡短摘要和多選題,並透過患者調查和眾包註釋來評估其有效性。結果顯示,摘要內容可讀且具資訊性,患者認為有助於理解臨床試驗並提高參與意願。雖然多選題的準確性高,但當要求提供未明確列出的資訊時,GPT-4的準確性較低。整體而言,研究顯示GPT-4能有效生成患者友好的教育材料,但仍需人類監督以確保準確性。 PubMed DOI

這項研究探討使用 Mistral 8x22B 大型語言模型 (LLM) 改善臨床試驗的知情同意書 (ICFs) 撰寫,針對複雜性和法律術語問題進行分析。研究中,四個臨床試驗方案的 ICF 由 LLM 生成,並由八位專家評估。結果顯示,LLM 生成的 ICF 在準確性和完整性上與人類版本相似,但在可讀性和可理解性上表現更佳,且在可行性上獲得滿分。整體而言,LLM 顯示出提升 ICF 可及性和清晰度的潛力,可能成為改善參與者理解的有效解決方案。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 PubMed DOI

這項研究探討了ChatGPT-4是否能創建清晰易懂的前列腺癌研究摘要,分析了2022年7月至2024年6月間80篇發表於*Current Oncology*的文章。研究發現,使用詳細提示的摘要在可讀性和質量上都顯著優於簡單提示。雖然兩者都能提供全面的摘要,但詳細提示讓資訊更易於被廣泛受眾理解。研究強調了自訂提示在醫療溝通中的重要性,並建議未來應考慮病患反饋,將此方法擴展至其他醫療領域。 PubMed DOI

生成式人工智慧(GAI)技術,特別是大型語言模型(LLMs),在醫學領域的應用越來越普遍,尤其是在病人與臨床試驗配對方面。研究顯示,LLMs能有效匹配病人的健康紀錄與臨床試驗資格標準,並取得良好結果。雖然自動化配對有助於提升病人參與率和減輕醫療工作負擔,但也面臨挑戰,如可能帶來虛假希望、導航困難及需人類監督等問題。進一步研究對驗證LLM在腫瘤學中的安全性和有效性至關重要。 PubMed DOI

這項研究探討使用大型語言模型(LLMs)為眼科筆記創建簡明語言摘要(PLSs),旨在提升非眼科醫師的理解與溝通。研究結果顯示,85%的非眼科醫師偏好PLSs,且在診斷理解、筆記細節滿意度及解釋清晰度上均有顯著改善。PLSs也縮小了醫師間對眼科術語的理解差距。雖然PLSs的可讀性和意義保留良好,但審查中發現26%的錯誤率,需謹慎使用。總體而言,PLSs有助於增進非眼科醫師的理解與跨學科溝通。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

這篇文獻回顧指出,大型語言模型(LLMs)已被用來提升病患與臨床試驗配對的效率,尤其是OpenAI的模型。雖然LLMs能大幅提升配對準確度與規模,但目前仍面臨可靠性、可解釋性及過度依賴合成資料等問題。未來應加強模型調校、採用真實世界資料,並提升可解釋性,才能真正發揮其潛力。 PubMed DOI

生成式AI和大型語言模型越來越多人用來查醫療資訊,雖然有助提升健康知識,但也可能出現錯誤、過度簡化或隱私等問題。現有研究多著重正確性,較少納入病人實際經驗。未來應加強透明度、監督,並讓醫療人員和使用者參與回饋,同時加強大眾教育。 PubMed DOI