原始文章

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款生成式AI聊天機器人—Chat GPT-4、Claude和Bard—在回答子宮內膜異位症問題的準確性。九位婦產科醫生對十個常見問題的回答進行評分,結果顯示Bard平均得分3.69,Chat GPT 4.24,Claude 3.7。雖然這些機器人的回答大多正確,但仍不夠全面,Chat GPT的表現最佳。研究強調持續評估這些聊天機器人的必要性,以確保能提供準確且全面的資訊,並指出隨著生成式AI在醫療領域的普及,進一步研究的重要性。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT,提供的乳腺癌和前列腺癌篩檢資訊的準確性,並與美國預防服務工作組(USPSTF)的指導方針進行比較。研究發現,71.7%的標準與USPSTF建議一致,但有15%的資訊不準確或不相關,特別是在針對年長者的回應中。雖然ChatGPT的資訊大致符合官方指導,但仍有顯著差距,提醒使用者在參考AI生成的癌症篩檢資訊時,應諮詢專業醫療人員。 PubMed DOI

這項研究評估了AI聊天機器人ChatGPT提供的長效可逆避孕法(LARC)資訊的準確性。研究發現,69.3%的回應準確,但16.3%包含過時或不準確的資訊,14.4%則有誤導性陳述。此外,45.1%的回應使用性別排他性語言,僅提及女性。平均可讀性分數顯示需具大學程度的閱讀能力。雖然ChatGPT提供的LARC資訊有其價值,但用戶應謹慎,並獨立驗證資訊的正確性。 PubMed DOI

這項研究評估了四款AI聊天機器人(ChatGPT、Gemini、Perplexity和Copilot)提供的性傳播疾病資訊的可靠性和可讀性。結果顯示,Perplexity和Copilot的資訊較為可靠,但所有聊天機器人的可讀性都未達到建議的六年級標準,對健康素養較低的使用者來說過於複雜。研究強調了改善AI健康資訊準確性和可及性的必要性,以便讓更多人能理解。 PubMed DOI

這項研究發現,當 HIV 諮詢問題加入種族、性別或性傾向等社會背景時,ChatGPT 給不同族群的建議會有落差,部分回應不夠完整,也缺乏文化敏感度和相關資源。這顯示 AI 回應有偏見,未來需納入更多元資料,才能確保公共衛生資訊的公平性。 PubMed DOI

研究比較六款聊天機器人回答中年健康問題的表現,發現 Meta AI 答案最準確、最有條理,Perplexity 最容易閱讀。整體來說,這些聊天機器人對中年健康教育有幫助,但表現有差異,選擇合適的工具很重要。 PubMed DOI

這項研究發現,現有的大型語言模型雖然能回答更年期健康問題,但目前的評估方式對於敏感醫療議題還不夠完善。作者建議應發展更專業且重視倫理的評估標準,確保AI產出的醫療資訊安全又可靠。 PubMed DOI

「Prostate Cancer Info」AI聊天機器人回答前列腺癌篩檢問題時,大多內容正確且符合台灣常用語,74%答案完整,閱讀難度也不高。不過,有些重要資訊還是會漏掉。這類AI可以當作補充參考,但不能取代醫師專業建議,遇到健康問題還是要找醫生討論。 PubMed DOI

研究比較多個AI平台(如ChatGPT 3.5/4.0、Google Bard/Gemini、HIV.gov Chatbot)在提供HIV藥物資訊的表現。結果發現,ChatGPT 4.0 回答最完整,HIV.gov Chatbot 最不全面。所有平台都建議諮詢醫師,且普遍認為HIV藥物有效。AI雖能提供方便的資訊,但個人問題還是要找專業醫療人員討論。未來可再研究AI在HIV預防和照護的應用。 PubMed DOI

這項研究比較四款免費AI聊天機器人回答肝癌相關問題的表現,發現它們雖然能提供大致正確且無偏見的資訊,但在資料來源、治療細節和說明清楚度上有差異。AI回答可作為參考,但仍需專業醫師把關,不能取代醫療建議。 PubMed DOI