原始文章

重點摘要: SCAI 給醫師用的聊天機器人用十個問題來測試回覆速度和使用者滿意度。雖然回覆速度偏慢,不過參與者整體上對這個聊天機器人還算滿意。 PubMed DOI


站上相關主題文章列表

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

我們開發了一款專為第二型糖尿病設計的AI聊天機器人,結合RAG和大型語言模型,能正確、有同理心地回答問題,並附上可信來源。若用到一般知識,會主動提醒使用者,資訊更透明。這不只提升健康素養,也幫助病患和教育者,未來也能應用在其他健康議題。 PubMed DOI

研究比較六款聊天機器人回答中年健康問題的表現,發現 Meta AI 答案最準確、最有條理,Perplexity 最容易閱讀。整體來說,這些聊天機器人對中年健康教育有幫助,但表現有差異,選擇合適的工具很重要。 PubMed DOI

這項研究比較SCAI大型語言模型和傳統網路搜尋的資訊查詢效果。參與者分別用兩種方式完成任務並給予回饋。結果顯示,SCAI在資訊完整性、效率和易用性上表現更佳。研究也透過操作流程和使用者評分,評估SCAI作為新型資訊工具的實用價值。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

「Prostate Cancer Info」AI聊天機器人回答前列腺癌篩檢問題時,大多內容正確且符合台灣常用語,74%答案完整,閱讀難度也不高。不過,有些重要資訊還是會漏掉。這類AI可以當作補充參考,但不能取代醫師專業建議,遇到健康問題還是要找醫生討論。 PubMed DOI

這項初步研究發現,ChatGPT 3.5回答腦血管問題時,比醫師更完整、有同理心,正確率也差不多,但用詞較艱深,一般人可能看不懂。未來可考慮結合AI和醫師意見,幫助病患更好溝通。 PubMed DOI

這項研究測試了一款專為美國非裔族群設計的口腔癌AI聊天機器人,專家普遍認為它資訊正確、好用(正面回饋超過83%),但建議加強開場說明、介面簡單化、無障礙設計及專業術語解釋。整體來說,這個聊天機器人有助提升健康知識,減少健康不平等。 PubMed

這項研究發現,採用檢索增強技術的AI聊天機器人(如ChatGPT-4o Deep Research等)在提供結節病資訊時,比一般AI更準確可靠。不過,他們的回答多半太艱深,病人不易看懂,而且給的實際建議也不夠明確。整體來說,AI雖然能提供高品質資訊,但在易讀性和實用性上還有進步空間。 PubMed DOI