原始文章

這項研究探討了提示工程對大型語言模型(LLM),特別是GPT-4,在醫療提供者回應病人詢問時的影響。研究持續8個月,參與者有27位醫療提供者,主要評估LLM生成訊息的使用情況及提供者的情感變化。 結果顯示,7605條訊息中僅17.5%被使用,負面情感顯著減少,但整體使用量卻下降。隨著護士的加入,使用量提升至35.8%。雖然提示工程改善了內容質量,但整合LLM進工作流程仍面臨挑戰,未來需更注重人因因素以提升可用性和有效性。 PubMed DOI


站上相關主題文章列表

提示工程是新興領域,專注於設計提示以引導像ChatGPT這樣的大型語言模型。這些模型已廣受歡迎,使人工智慧更易接觸。這轉變對醫療保健產生影響,因為人工智慧工具廣泛應用。本文回顧提示工程研究,提出建議,協助醫療保健專業人員善用大型語言模型。 PubMed DOI

研究指出,GPT-3.5和GPT-4處理臨床數據時,只需少量訓練數據即可提取有價值資訊。透過改進提示策略,可增進模型在臨床命名實體識別任務表現,減少大量標註數據需求。雖GPT模型在臨床應用有潛力,仍需進一步改進。研究結果凸顯了量身定制的提示框架重要性,以提高大型語言模型在臨床環境性能。 PubMed DOI

臨床醫學中,LLMs的應用越來越廣泛,善加利用這些知識對這個領域至關重要。即時工程是一個具潛力的方法。研究指出,在測試LLMs對骨關節炎指引的影響時,gpt-4-Web表現最好,特別是在使用ROT提示時的一致性和效能最高。不同模型之間的提示可靠度有所不同,而gpt-4-Web使用ROT提示的一致性最佳。適當的提示能提升LLMs對醫學問題的準確性。 PubMed DOI

LLMs在臨床應用上很強大,但缺乏標記數據。為了掌握臨床知識,需要進行上下文學習。研究評估了零-shot和少-shot臨床信息提取的提示工程技術。結果顯示,定制任務特定提示至關重要,而啟發式和集成提示也很有效。GPT-3.5表現最佳,並且集成方法有助於提升性能。這項研究為臨床自然語言處理的提示工程提供了重要的指導。 PubMed DOI

研究使用大型語言模型幫助病人提出問題,提升溝通效率。以范德堡大學醫學中心數據測試三個模型,CLAIR在清晰度、完整性和簡潔性表現最佳。GPT4在效用和完整性較高,但清晰度和簡潔性較差。CLAIR生成的問題與醫療者相符,有助改善溝通。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4,如何生成符合病人和醫師需求的醫療建議回應。研究團隊透過人員參與的迭代過程,優化提示,提升回應質量。經過三次迭代後,臨床醫師對草擬回應的接受度從62%提升至84%,且74%的回應被評為「有幫助」。病人也認為優化後的回應在語氣和質量上更佳,76%的病人無法分辨人類與LLM生成的回應。研究顯示,根據醫師和病人的反饋來精煉提示,能有效生成有用的醫療建議。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4.0,對於三級醫療機構病人投訴的回應效果。研究比較了ChatGPT與病人關係部門的回應,結果顯示87.2%到97.3%的受訪者更偏好ChatGPT的回應,且其在適當性、同理心等方面得分較高。ChatGPT的回應平均較長,且與高得分有關。研究顯示,ChatGPT能有效提升病人投訴的解決效果,未來可進一步探討AI在醫療系統中的應用潛力。 PubMed DOI

生成式AI模型如ChatGPT正在改變醫療保健,透過提示工程提升AI輸出的準確性和倫理標準。這個九階段的過程包括:識別應用、了解利益相關者需求、設計量身定制的提示、迭代測試與改進、倫理考量、協作反饋、文檔記錄、培訓及持續更新。研究強調生成式AI在醫療中的應用,確保AI提示能滿足病人及醫療提供者的需求,促進病人對症狀、治療和預防策略的知情決策。 PubMed DOI

這項研究探討不同提示工程技術對大型語言模型(如ChatGPT3.5和GPT4)在回答視網膜疾病相關問題時的影響。研究中使用了二十個常見問題,並在獨立問題、優化提示(提示A)及加上長度和閱讀水平限制的提示B下進行測試。三位視網膜專家評估回應的準確性和全面性,結果顯示兩個模型在各指標上無顯著差異,但提示B的可讀性較高,卻以準確性和全面性為代價。研究建議未來需進一步探討LLM在病人教育中的有效性及倫理問題。 PubMed DOI

這項研究聚焦於醫療領域的提示工程,探討其如何提升大型語言模型(LLMs)處理複雜醫療文本的能力。研究回顧了114篇2022至2024年間的相關文獻,發現提示設計(PD)是最常用的方法,且ChatGPT是最受歡迎的LLM。思考鏈技術被廣泛應用,但有61%的研究未報告基準,影響有效性評估。研究旨在提供醫療提示工程的現狀,識別機會與挑戰,並提出未來研究的指導方針。 PubMed DOI