原始文章

這項研究探討了提示的構建對AI聊天機器人在頭頸外科回應質量的影響。由16位研究人員在11個歐洲中心進行,涉及24個問題,分為臨床情境、理論問題和病人詢問。結果顯示,使用結構化提示(SMART格式)生成的回應在質量評估上顯著優於非結構化提示,特別是在臨床情境和病人詢問中。研究強調良好構建提示的重要性,並建議未來可在其他醫學領域進行類似研究。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs),特別是GPT-4,如何生成符合病人和醫師需求的醫療建議回應。研究團隊透過人員參與的迭代過程,優化提示,提升回應質量。經過三次迭代後,臨床醫師對草擬回應的接受度從62%提升至84%,且74%的回應被評為「有幫助」。病人也認為優化後的回應在語氣和質量上更佳,76%的病人無法分辨人類與LLM生成的回應。研究顯示,根據醫師和病人的反饋來精煉提示,能有效生成有用的醫療建議。 PubMed DOI

越來越多患者在網上尋找健康資訊,尤其是像佩羅尼氏病這種敏感疾病。大型語言模型(LLM)聊天機器人展現了提供資訊的潛力,但對於PD的準確性和可讀性仍不明朗。研究評估了四個LLM在回答PD查詢時的資訊質量,結果顯示在有提示的情況下,資訊質量提升至高水平,但平均閱讀水平為12.9年級,超過大多數患者的理解能力。雖然LLM在患者教育上有潛力,但仍需臨床背景和人類提示來提升效果,並需教育患者與醫生如何有效互動。 PubMed DOI

這項研究強調與像 ChatGPT 這樣的聊天機器人互動時,使用描述性、對話式的提示能提升健康資訊的可讀性和理解度,特別是針對脆弱性骨折的資訊。研究發現,簡單語言提示的回應在可讀性和理解度上明顯較高,且更容易讓患者理解。這顯示在創建以患者為中心的健康資訊時,對話式提示能增強理解能力。研究呼籲臨床醫生和內容創作者在使用 AI 工具進行患者教育時,應採用這種方法,以便讓健康資訊更易取得,幫助患者做出明智的健康決策。 PubMed DOI

這項研究指出,像 ChatGPT 這樣的 AI 平台在病人教育,特別是甲狀腺癌管理中越來越重要。研究人員設計了 50 個問題,評估 ChatGPT 的回答在準確性、全面性、人性化、滿意度和可讀性等方面的表現。結果顯示,使用「統計數據和參考文獻」的提示能產生最準確的答案,而「六年級水平」的提示則讓內容更易懂。不過,沒有特定提示的回答通常較複雜。雖然大部分引用自醫學文獻,但仍有少部分錯誤資訊,因此監督 AI 內容的準確性非常重要。 PubMed DOI

這項研究評估了五款AI聊天機器人對口腔癌問題的回應,包括Bing、GPT-3.5、GPT-4、Google Bard和Claude。經過專家評估,GPT-4獲得最高質量分數(17.3),而Bing最低(14.9)。Bard在可讀性上表現最佳,GPT-4和Bard在同理心及引用準確性方面也表現突出。整體來看,GPT-4提供的回應質量最高,但大多數聊天機器人在同理心和準確引用上仍有待加強。 PubMed DOI

這項研究探討了使用關鍵分析過濾器(CAF)系統,來提升一個針對精神分裂症教育的聊天機器人可靠性。考量到患者的認知挑戰,研究團隊整合了大型語言模型(LLMs),如GPT-4,來改善教育效果。為了解決LLMs的不穩定性,研究人員開發了一個聊天機器人,能夠訪問專為患者和照顧者設計的手冊,並透過CAF進行回應的批判性評估。結果顯示,啟用CAF後,67%的回應符合標準,顯示CAF能有效提升心理健康教育的安全性與有效性。 PubMed DOI

這項研究探討物聯網(IoT)和人工智慧(AI)在公共醫療中的應用,特別是針對乾眼症的檢測與管理。研究利用 OpenAI GPT-4.0 和 ERNIE Bot-4.0 API,分析 5,747 例模擬病人的投訴,並使用 BERT 模型將案例分類為緊急與非緊急。結果顯示,準確率從 80.1% 提升至 99.6%,但回應時間增加,導致用戶滿意度下降(從 95.5 降至 84.7),醫療質量滿意度卻上升(從 73.4 增至 96.7)。這強調了準確性與用戶滿意度之間的平衡,未來應優化提示結構以提升系統性能。 PubMed DOI

這項研究評估了基於人工智慧的聊天機器人,特別是ChatGPT 3.5和Claude-instant,在複雜口腔外科案例中輔助臨床決策的效果。口腔及顏面外科醫生設計了一系列問題,並透過專業評估工具來檢視聊天機器人的回應質量。結果顯示,ChatGPT和Claude-instant都提供高質量的回應,ChatGPT的質量評分分別為86%和79.6%,而Claude-instant則為81.25%和89%。這些結果顯示聊天機器人技術的進步,可能提升醫療效率並降低成本。 PubMed DOI

這項研究發現,不同的提問方式會影響GPT回答牙科植體問題的品質。雖然所有模型都能給出不錯的答案,但用情境化提示時,治療相關問題的回答較不清楚、相關性也較低,不過引用資料的表現較佳。整體來說,GPT能提供實用資訊,但提問設計還有改進空間。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI