原始文章

這項研究測試了一款專為美國非裔族群設計的口腔癌AI聊天機器人,專家普遍認為它資訊正確、好用(正面回饋超過83%),但建議加強開場說明、介面簡單化、無障礙設計及專業術語解釋。整體來說,這個聊天機器人有助提升健康知識,減少健康不平等。 PubMed


站上相關主題文章列表

這項研究開發了一個聊天機器人,目的是協助從全人口基因篩檢中獲得正面結果,並運用大型語言模型。隨著基因檢測需求上升,這項研究希望透過科技創新來解決專家短缺的問題。 聊天機器人透過三步驟的提示工程創建,並在兩個假設情境中進行評估,專家們根據五點量表對八個標準進行打分。結果顯示,總分為3.88,語調和可用性最佳(各4.25分),但程式準確性最低(3.25分)。未來研究將專注於改進提示和設計混合型聊天機器人,以提升基因服務的品質。 PubMed DOI

這項研究評估了ChatGPT-3.5在回答口腔癌相關問題的準確性,因為早期診斷對患者結果影響重大。研究中提出20個問題,並由醫療專家評估其回答。結果顯示,51.25%的答案被評為非常好,46.25%為好,僅2.5%可接受。專家評分間無顯著差異。雖然ChatGPT提供的資訊可靠,但引用的81篇文獻中,只有13篇是合法的科學文章,10篇為假文獻,其餘則來自各種網站。總體而言,ChatGPT的資訊值得參考,但需謹慎對待其引用來源。 PubMed DOI

這項研究評估了五款AI聊天機器人對口腔癌問題的回應,包括Bing、GPT-3.5、GPT-4、Google Bard和Claude。經過專家評估,GPT-4獲得最高質量分數(17.3),而Bing最低(14.9)。Bard在可讀性上表現最佳,GPT-4和Bard在同理心及引用準確性方面也表現突出。整體來看,GPT-4提供的回應質量最高,但大多數聊天機器人在同理心和準確引用上仍有待加強。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT,提供的乳腺癌和前列腺癌篩檢資訊的準確性,並與美國預防服務工作組(USPSTF)的指導方針進行比較。研究發現,71.7%的標準與USPSTF建議一致,但有15%的資訊不準確或不相關,特別是在針對年長者的回應中。雖然ChatGPT的資訊大致符合官方指導,但仍有顯著差距,提醒使用者在參考AI生成的癌症篩檢資訊時,應諮詢專業醫療人員。 PubMed DOI

這項研究探討了基於人工智慧的聊天機器人ChatGPT-4在口腔黏膜病變鑑別診斷中的有效性。研究收集了因口腔黏膜活檢而轉診的患者數據,並將病變描述輸入ChatGPT以生成診斷,與專家診斷進行比較。結果顯示,聊天機器人的診斷與專家之間有顯著相關性,且能高敏感性識別惡性病變。整體而言,ChatGPT-4在識別可疑惡性病變方面表現出色,顯示出其在口腔醫學中的輔助潛力。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

我們開發了一款專為第二型糖尿病設計的AI聊天機器人,結合RAG和大型語言模型,能正確、有同理心地回答問題,並附上可信來源。若用到一般知識,會主動提醒使用者,資訊更透明。這不只提升健康素養,也幫助病患和教育者,未來也能應用在其他健康議題。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

「Prostate Cancer Info」AI聊天機器人回答前列腺癌篩檢問題時,大多內容正確且符合台灣常用語,74%答案完整,閱讀難度也不高。不過,有些重要資訊還是會漏掉。這類AI可以當作補充參考,但不能取代醫師專業建議,遇到健康問題還是要找醫生討論。 PubMed DOI

這項研究訪談24位中國腫瘤科醫師,發現他們認為AI聊天機器人能幫助病患獲取資訊、管理慢性病,但也擔心責任歸屬、錯誤資訊、缺乏個人化、隱私及病患準備度等問題。醫師認為,AI有機會改善或傷害醫病關係。研究建議,若要安全導入,需明確政策、完善測試、機構支持及教育訓練。 PubMed DOI