原始文章

這項研究測試了一款專為美國非裔族群設計的口腔癌AI聊天機器人,專家普遍認為它資訊正確、好用(正面回饋超過83%),但建議加強開場說明、介面簡單化、無障礙設計及專業術語解釋。整體來說,這個聊天機器人有助提升健康知識,減少健康不平等。 PubMed


站上相關主題文章列表

這項研究探討了ChatGPT在提供乳腺癌健康資訊的有效性,並與CDC網站進行比較。研究使用技術接受模型,強調易用性和有用性,並針對患者和公眾的常見問題進行質性分析,聚焦於定義、預防、診斷和治療四個主題。結果顯示,ChatGPT使用友好且提供準確資訊,來源可靠,能增強乳腺癌知識的獲取。不過,它缺乏問責性,回應也可能隨時間變化。總體而言,ChatGPT在傳播乳腺癌資訊和提升公眾認識方面顯示出潛力。 PubMed DOI

這項研究評估了人工智慧聊天機器人「PROSCA」在支持前列腺癌男性患者方面的效果。研究中112名參與者被分為兩組,一組接受標準資訊,另一組則在此基礎上使用PROSCA。結果顯示,使用PROSCA的患者對資訊需求減少,且對前列腺癌的理解有所提升。大多數使用者覺得PROSCA好用,並希望再次使用。儘管有樣本大小和單中心設計的限制,研究顯示PROSCA可能成為提升患者教育的重要工具,未來可考慮自訂回應並整合進醫療系統。 PubMed DOI

這項研究評估了ChatGPT在口腔外科、預防牙科和口腔癌領域提供的資訊質量。專家設計了50個問題,結果顯示ChatGPT在預防牙科方面表現最佳,得分4.3(滿分5),能有效傳達複雜資訊。但在口腔外科(3.9)和口腔癌(3.6)方面得分較低,顯示在術後指導和個性化建議上有不足。研究強調在使用AI資訊時需有專業監督,並持續評估AI的能力,以確保病人護理的負責任使用。 PubMed DOI

這項研究評估了五款AI聊天機器人對口腔癌問題的回應,包括Bing、GPT-3.5、GPT-4、Google Bard和Claude。經過專家評估,GPT-4獲得最高質量分數(17.3),而Bing最低(14.9)。Bard在可讀性上表現最佳,GPT-4和Bard在同理心及引用準確性方面也表現突出。整體來看,GPT-4提供的回應質量最高,但大多數聊天機器人在同理心和準確引用上仍有待加強。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT,提供的乳腺癌和前列腺癌篩檢資訊的準確性,並與美國預防服務工作組(USPSTF)的指導方針進行比較。研究發現,71.7%的標準與USPSTF建議一致,但有15%的資訊不準確或不相關,特別是在針對年長者的回應中。雖然ChatGPT的資訊大致符合官方指導,但仍有顯著差距,提醒使用者在參考AI生成的癌症篩檢資訊時,應諮詢專業醫療人員。 PubMed DOI

這項研究探討了基於人工智慧的聊天機器人ChatGPT-4在口腔黏膜病變鑑別診斷中的有效性。研究收集了因口腔黏膜活檢而轉診的患者數據,並將病變描述輸入ChatGPT以生成診斷,與專家診斷進行比較。結果顯示,聊天機器人的診斷與專家之間有顯著相關性,且能高敏感性識別惡性病變。整體而言,ChatGPT-4在識別可疑惡性病變方面表現出色,顯示出其在口腔醫學中的輔助潛力。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

我們開發了一款專為第二型糖尿病設計的AI聊天機器人,結合RAG和大型語言模型,能正確、有同理心地回答問題,並附上可信來源。若用到一般知識,會主動提醒使用者,資訊更透明。這不只提升健康素養,也幫助病患和教育者,未來也能應用在其他健康議題。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

「Prostate Cancer Info」AI聊天機器人回答前列腺癌篩檢問題時,大多內容正確且符合台灣常用語,74%答案完整,閱讀難度也不高。不過,有些重要資訊還是會漏掉。這類AI可以當作補充參考,但不能取代醫師專業建議,遇到健康問題還是要找醫生討論。 PubMed DOI