原始文章

重點摘要: SCAI 給醫師用的聊天機器人用十個問題來測試回覆速度和使用者滿意度。雖然回覆速度偏慢,不過參與者整體上對這個聊天機器人還算滿意。 PubMed DOI


站上相關主題文章列表

這項研究評估了五個聊天機器人(A、B、C、D、E)在提供心臟病學、腫瘤學和銀屑病資訊的表現。主要發現包括:聊天機器人C的回應最短,A的回應最長;可讀性分數從D的16.3到A的39.8不等,顯示可讀性差異;Gunning Fog指數顯示理解文本所需的教育程度範圍廣;Dale-Chall分數則反映詞彙熟悉度。總體來說,雖然這些聊天機器人能提供可靠資訊,但回應的長度、質量和可讀性差異顯著,使用者應謹慎驗證資訊。 PubMed DOI

人工智慧技術在病患照護上有很大潛力,尤其在診斷、精神疾病治療和認知測試解讀等方面。雖然進展顯著,但仍需進一步研究其在醫療中的優缺點。一項研究比較了人工智慧(Chat-GPT 3.5)和臨床醫師對癡呆症相關問題的回答,結果顯示人工智慧在易懂性和深度上表現更佳,平均評分為4.6/5,而臨床醫師則為4.3、4.2和3.9。儘管人工智慧的回答質量高,但仍需注意錯誤資訊和數據安全等問題。總之,人工智慧在醫療溝通上有潛力,但需謹慎對待其限制。 PubMed DOI

在希臘進行的研究探討了AI應用程式ChatGPT 4.0在193位不同醫療專科醫生中的實用性與滿意度。參與者與專為其部門設計的聊天機器人互動,並用1到5分評分。結果顯示,普通外科和心臟科醫生的滿意度較低(2.73到2.80),而生物病理學和骨科醫生則較高(4.00到4.46)。這反映出不同專科的需求差異,並指出改善的空間。儘管有些限制,ChatGPT 4.0仍顯示出在醫療領域的潛力,未來有望進一步整合與發展。 PubMed DOI

這項研究比較了AI語言模型ChatGPT與專家醫生在健康建議的有效性和安全性。研究涵蓋100個健康問題,結果顯示: 1. **同理心與實用性**:患者認為ChatGPT在同理心(4.18對2.7)和實用性(4.04對2.98)上表現更佳。 2. **正確性**:ChatGPT的正確性得分(4.51對3.55)也優於專家。 3. **潛在危害**:專家指出AI的有害建議比例較低,但患者對這些風險的認知不足。 4. **性別差異**:女性對同理心的評價高於男性。 總體而言,ChatGPT在協助患者解決健康問題上表現出色,但患者需謹慎識別潛在風險。 PubMed DOI

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

我們開發了一款專為第二型糖尿病設計的AI聊天機器人,結合RAG和大型語言模型,能正確、有同理心地回答問題,並附上可信來源。若用到一般知識,會主動提醒使用者,資訊更透明。這不只提升健康素養,也幫助病患和教育者,未來也能應用在其他健康議題。 PubMed DOI

研究比較六款聊天機器人回答中年健康問題的表現,發現 Meta AI 答案最準確、最有條理,Perplexity 最容易閱讀。整體來說,這些聊天機器人對中年健康教育有幫助,但表現有差異,選擇合適的工具很重要。 PubMed DOI

這項研究比較SCAI大型語言模型和傳統網路搜尋的資訊查詢效果。參與者分別用兩種方式完成任務並給予回饋。結果顯示,SCAI在資訊完整性、效率和易用性上表現更佳。研究也透過操作流程和使用者評分,評估SCAI作為新型資訊工具的實用價值。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI