原始文章

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 PubMed DOI


站上相關主題文章列表

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是GPT-4,在製作癌症臨床試驗教育內容的潛力,旨在提升患者的理解。研究從ClinicalTrials.gov獲取知情同意書,生成簡短摘要和多選題,並透過患者調查和眾包註釋來評估其有效性。結果顯示,摘要內容可讀且具資訊性,患者認為有助於理解臨床試驗並提高參與意願。雖然多選題的準確性高,但當要求提供未明確列出的資訊時,GPT-4的準確性較低。整體而言,研究顯示GPT-4能有效生成患者友好的教育材料,但仍需人類監督以確保準確性。 PubMed DOI

這項研究探討使用 Mistral 8x22B 大型語言模型 (LLM) 改善臨床試驗的知情同意書 (ICFs) 撰寫,針對複雜性和法律術語問題進行分析。研究中,四個臨床試驗方案的 ICF 由 LLM 生成,並由八位專家評估。結果顯示,LLM 生成的 ICF 在準確性和完整性上與人類版本相似,但在可讀性和可理解性上表現更佳,且在可行性上獲得滿分。整體而言,LLM 顯示出提升 ICF 可及性和清晰度的潛力,可能成為改善參與者理解的有效解決方案。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析線上護理論壇專家文本的應用,目的是提升主題分析的效率。研究過程包括數據收集、主題建模、人為分類及LLMs的主題詮釋。結果顯示,人為詮釋與LLMs生成的詮釋有80%的相似度,且在三分之二的主題上達成共識。LLMs能識別子主題並提供額外見解,增強分析深度,但在質性研究中整合這些模型仍需謹慎。總體而言,LLMs在自動化質性數據詮釋方面展現潛力。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在改善外科手術知情同意過程中的角色,強調提供準確醫療資訊和同理心互動的重要性。雖然LLMs能增強資訊檢索和模擬情感,但也面臨倫理挑戰,特別是病人自主權和信任問題。論文區分主動與被動同理心,建議LLMs應專注於被動同理心,協助識別病人焦慮,並提醒醫療人員。最終,作者提倡倫理使用LLMs,確保其補充而非取代人類同理心,提升知情同意體驗。 PubMed DOI

臨床試驗對醫學進步和病人獲得新療法非常重要,但像 ClinicalTrials.gov 的複雜語言讓人難以理解。本研究探討大型語言模型(LLMs),特別是 GPT-4,如何改善病人對癌症臨床試驗的教育。研究人員利用知情同意書,透過兩種 AI 方法創建易懂的摘要,並設計多選題評估病人理解。結果顯示,AI 生成的摘要更易讀,且超過 80% 的參與者表示理解更好。儘管 LLMs 有助於增強病人參與,但仍需解決準確性和倫理問題,未來應專注於改善 AI 流程和遵循法規。 PubMed DOI

這項研究探討大型語言模型(LLMs)在總結患者在網上論壇和健康社群分享經驗的有效性。研究評估了Flan-T5、GPT、GPT-3和GPT-3.5等模型,並測試不同的提示策略。結果顯示,GPT-3.5在零-shot提示中表現最佳,並在3-shot設置中結合方向性提示時達到最佳效果。手動評估也確認了其摘要的準確性。雖然研究顯示LLMs能提供有價值的質性見解,但也存在數據樣本小和手動摘要僅由一位標註者創建的限制。 PubMed DOI

這項研究發現,GPT-4在總結腦瘤支持論壇貼文時,品質和效率都勝過GPT-3.5、Llama 3和傳統主題分析法,結果也跟人工分析相近,但速度快很多。雖然GPT-4很有潛力協助健康相關資料分析,但還是有模型偏誤和處理限制等問題需要注意。 PubMed DOI

這項研究發現,LLM像ChatGPT-4o能快速抓到結構和後勤主題,但人類分析師更能掌握情感和心理細節。結合兩者分析,有助提升健康研究的廣度和深度。作者建議未來可採用這種混合方式。 PubMed DOI

這項研究發現,GPT-4在分析癌症病患與醫療人員的對話內容時,和人類專家有高度到中度的一致性,像是判斷有無討論症狀、誰先提起、以及建議內容等。雙方意見分歧的情況不多,且有詳細分類。結果顯示,LLM有潛力協助提升醫療溝通與照護品質。 PubMed DOI