原始文章

這項研究探討物聯網(IoT)和人工智慧(AI)在公共醫療中的應用,特別是針對乾眼症的檢測與管理。研究利用 OpenAI GPT-4.0 和 ERNIE Bot-4.0 API,分析 5,747 例模擬病人的投訴,並使用 BERT 模型將案例分類為緊急與非緊急。結果顯示,準確率從 80.1% 提升至 99.6%,但回應時間增加,導致用戶滿意度下降(從 95.5 降至 84.7),醫療質量滿意度卻上升(從 73.4 增至 96.7)。這強調了準確性與用戶滿意度之間的平衡,未來應優化提示結構以提升系統性能。 PubMed DOI


站上相關主題文章列表

在數位醫療領域,利用GPT模型匿名化健康資訊進行研究有潛力。已研發方法用於編輯罕見呼吸系統疾病平台上醫生回應,保留醫療建議核心。挑戰在於錯誤分類和不完全刪除,需要提高準確性。GPT-4模型潛力龐大,但準確性和一致性有困難。在醫療環境中,準確性至關重要,以減少偏見並保持相關資訊。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4,如何生成符合病人和醫師需求的醫療建議回應。研究團隊透過人員參與的迭代過程,優化提示,提升回應質量。經過三次迭代後,臨床醫師對草擬回應的接受度從62%提升至84%,且74%的回應被評為「有幫助」。病人也認為優化後的回應在語氣和質量上更佳,76%的病人無法分辨人類與LLM生成的回應。研究顯示,根據醫師和病人的反饋來精煉提示,能有效生成有用的醫療建議。 PubMed DOI

這項研究探討了提示工程對大型語言模型(LLM),特別是GPT-4,在醫療提供者回應病人詢問時的影響。研究持續8個月,參與者有27位醫療提供者,主要評估LLM生成訊息的使用情況及提供者的情感變化。 結果顯示,7605條訊息中僅17.5%被使用,負面情感顯著減少,但整體使用量卻下降。隨著護士的加入,使用量提升至35.8%。雖然提示工程改善了內容質量,但整合LLM進工作流程仍面臨挑戰,未來需更注重人因因素以提升可用性和有效性。 PubMed DOI

生成式AI模型如ChatGPT正在改變醫療保健,透過提示工程提升AI輸出的準確性和倫理標準。這個九階段的過程包括:識別應用、了解利益相關者需求、設計量身定制的提示、迭代測試與改進、倫理考量、協作反饋、文檔記錄、培訓及持續更新。研究強調生成式AI在醫療中的應用,確保AI提示能滿足病人及醫療提供者的需求,促進病人對症狀、治療和預防策略的知情決策。 PubMed DOI

這項研究比較了AI聊天機器人(ChatGPT和Google Gemini)生成的病患教育材料與傳統病患資訊手冊(PILs)在眼科手術局部麻醉方面的效果。專家評估發現,雖然AI提供的語言較簡單且易懂,但傳統PILs在完整性和可讀性上表現更佳。統計分析顯示,ChatGPT在準確性和完整性上稍勝於Google Gemini,但兩者都不及PILs。值得一提的是,Google Gemini的情感語調最為正面。研究結果顯示,AI聊天機器人可作為病患教育的輔助工具,幫助提升病患的理解與決策能力。 PubMed DOI

這項研究探討不同提示工程技術對大型語言模型(如ChatGPT3.5和GPT4)在回答視網膜疾病相關問題時的影響。研究中使用了二十個常見問題,並在獨立問題、優化提示(提示A)及加上長度和閱讀水平限制的提示B下進行測試。三位視網膜專家評估回應的準確性和全面性,結果顯示兩個模型在各指標上無顯著差異,但提示B的可讀性較高,卻以準確性和全面性為代價。研究建議未來需進一步探討LLM在病人教育中的有效性及倫理問題。 PubMed DOI

這項研究探討如何透過提示工程提升ChatGPT-4在放射學問題上的表現,特別針對2022年美國放射學會的測試題。雖然ChatGPT-4在文字任務上表現優異,但在影像問題上則較弱。研究人員設計了四種角色,使用不同提示來評估其對準確性的影響。結果顯示,鼓勵性提示或責任免責聲明能提高準確性,而威脅法律行動的提示則降低準確性,且未回答問題的比例較高。這強調了提示背景在優化大型語言模型回應中的重要性,並呼籲在醫療環境中負責任地整合人工智慧的進一步研究。 PubMed DOI

這項研究評估了四個AI模型(ChatGPT 3.5、Google Bard、HuggingChat和Claude 2)生成的醫療解釋對病人理解的幫助。結果顯示,Claude 2的可讀性和可理解性最佳,但可行性較低;ChatGPT表現相似。Google Bard和HuggingChat的得分則較差。整體來看,Claude 2和ChatGPT的解釋較為清晰易懂,但研究強調仍需進一步探討這些AI解釋在實際醫療環境中的應用,並指出PEMAT評估的主觀性和AI工具的快速變化是限制因素。 PubMed DOI

這項研究探討了提示的構建對AI聊天機器人在頭頸外科回應質量的影響。由16位研究人員在11個歐洲中心進行,涉及24個問題,分為臨床情境、理論問題和病人詢問。結果顯示,使用結構化提示(SMART格式)生成的回應在質量評估上顯著優於非結構化提示,特別是在臨床情境和病人詢問中。研究強調良好構建提示的重要性,並建議未來可在其他醫學領域進行類似研究。 PubMed DOI

這項研究探討GPT生成的回應在病人入口網站的有效性,並與真實醫生的回應進行比較。研究發現,GPT的回應在同理心和可讀性上得分較高,但在相關性和準確性上差異不顯著。雖然可讀性較佳,但差異不大,讓人質疑其臨床意義。總體來說,研究建議GPT的訊息在某些方面可與醫療提供者相當,但仍需進一步研究其在醫療流程中的應用及病人對AI溝通的態度與倫理考量。 PubMed DOI