原始文章

這項研究探討物聯網(IoT)和人工智慧(AI)在公共醫療中的應用,特別是針對乾眼症的檢測與管理。研究利用 OpenAI GPT-4.0 和 ERNIE Bot-4.0 API,分析 5,747 例模擬病人的投訴,並使用 BERT 模型將案例分類為緊急與非緊急。結果顯示,準確率從 80.1% 提升至 99.6%,但回應時間增加,導致用戶滿意度下降(從 95.5 降至 84.7),醫療質量滿意度卻上升(從 73.4 增至 96.7)。這強調了準確性與用戶滿意度之間的平衡,未來應優化提示結構以提升系統性能。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs),特別是GPT-4,如何生成符合病人和醫師需求的醫療建議回應。研究團隊透過人員參與的迭代過程,優化提示,提升回應質量。經過三次迭代後,臨床醫師對草擬回應的接受度從62%提升至84%,且74%的回應被評為「有幫助」。病人也認為優化後的回應在語氣和質量上更佳,76%的病人無法分辨人類與LLM生成的回應。研究顯示,根據醫師和病人的反饋來精煉提示,能有效生成有用的醫療建議。 PubMed DOI

這項研究探討了提示的構建對AI聊天機器人在頭頸外科回應質量的影響。由16位研究人員在11個歐洲中心進行,涉及24個問題,分為臨床情境、理論問題和病人詢問。結果顯示,使用結構化提示(SMART格式)生成的回應在質量評估上顯著優於非結構化提示,特別是在臨床情境和病人詢問中。研究強調良好構建提示的重要性,並建議未來可在其他醫學領域進行類似研究。 PubMed DOI

這項研究探討如何透過提示工程提升ChatGPT在肺結節篩檢中生成電子病歷的能力。研究評估了ChatGPT在患者與醫療提供者口頭諮詢中創建電子病歷的表現,並將這技術整合到像微信小程序等實用工具中,方便患者就醫前使用。結果顯示,ChatGPT顯著提升了臨床環境中的工作流程效率和診斷過程。 PubMed DOI

這項研究開發了一個專為中國護理執照考試設計的Custom GPT,評估其準確性和回應質量。研究採用定量和描述性方法,並利用專業知識及先進技術如Prompt Engineering和語意搜尋來提升Custom GPT。測試使用720道2024年執照考試模擬題,結果顯示Custom GPT的準確率超過90%,而ChatGPT-4則在73%到89%之間。Custom GPT在各類題型上表現優異,提供簡潔且自信的解釋,顯示其在護理教育中的潛力,並建議可擴展至其他護理領域。 PubMed DOI

這項研究探討了使用關鍵分析過濾器(CAF)系統,來提升一個針對精神分裂症教育的聊天機器人可靠性。考量到患者的認知挑戰,研究團隊整合了大型語言模型(LLMs),如GPT-4,來改善教育效果。為了解決LLMs的不穩定性,研究人員開發了一個聊天機器人,能夠訪問專為患者和照顧者設計的手冊,並透過CAF進行回應的批判性評估。結果顯示,啟用CAF後,67%的回應符合標準,顯示CAF能有效提升心理健康教育的安全性與有效性。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

大型語言模型(LLMs)如ChatGPT在醫療領域的應用引發了關於其改善醫療品質的討論。雖然這些模型能通過醫學考試,但作為自我診斷工具的有效性仍需評估。研究使用EvalPrompt方法測試ChatGPT在自我診斷中的表現,結果顯示其正確率僅31%,且專家與非專家的評估一致性低。儘管在缺失信息的情況下仍有61%的回應被認為正確,但整體表現未達及格標準。研究強調了LLMs的局限性,並呼籲需建立更全面的自我診斷數據集,以提升其在醫療中的可靠性。 PubMed DOI

這項研究探討GPT生成的回應在病人入口網站的有效性,並與真實醫生的回應進行比較。研究發現,GPT的回應在同理心和可讀性上得分較高,但在相關性和準確性上差異不顯著。雖然可讀性較佳,但差異不大,讓人質疑其臨床意義。總體來說,研究建議GPT的訊息在某些方面可與醫療提供者相當,但仍需進一步研究其在醫療流程中的應用及病人對AI溝通的態度與倫理考量。 PubMed DOI

這篇文章介紹了幾種常見的提示工程技巧,像是 zero-shot、few-shot 和 chain-of-thought,說明它們如何幫助提升 AI 在介入放射學領域的表現。內容也討論資料隱私、法規等挑戰,並展望未來像檢索增強生成、多模態模型等新方向。 PubMed DOI

ChatGPT4 和 Perplexity AI 回答乾眼症常見問題的表現差不多,整體品質中等,各方面分數也有落差。ChatGPT4 在提出研究點子上稍微優秀。這兩款 AI 也許能在門診協助病患衛教,但還是需要專家把關,且在研究點子或文獻搜尋方面都不太可靠。 PubMed DOI