原始文章

這項研究顯示,人工智慧聊天機器人如ChatGPT和Google Gemini在澄清緩和醫療的誤解上非常有效。研究人員分析了三十個相關陳述,結果發現ChatGPT準確分類了28個,真陽性率達93.3%;而Google Gemini則完美分類所有陳述。統計分析顯示兩者表現無顯著差異。整體來看,這些聊天機器人能提升病人對緩和醫療的認知,並改善服務的可及性。 PubMed DOI


站上相關主題文章列表

目前對於聊天機器人和其他人工智慧系統提供的癌症資訊品質的研究有限。一項比較ChatGPT和美國國家癌症研究所(NCI)提供的資訊準確性的研究發現,無論是NCI還是ChatGPT提供的資訊都相當準確。總結來說,ChatGPT提供了關於常見癌症迷思和誤解的正確資訊。 PubMed DOI

消費者使用AI聊天機器人查詢癌症資訊,但資訊品質尚未經評估。研究使用驗證工具評估4個AI聊天機器人提供的癌症資訊,發現資訊品質良好、無錯誤,但易懂性中等、操作性較差。內容以大學程度撰寫。AI聊天機器人可提供正確資訊,但操作性有限,應視為醫療資訊輔助。 PubMed DOI

研究用DISCERN標準評估AI聊天機器人對常見癌症問題回答的品質,發現ChatGPT比Bing AI表現較好。AI在醫療上有潛力,但仍需改進,尤其在癌症等重要領域,以避免給患者和家人帶來誤解或壓力。 PubMed DOI

比較三個AI聊天機器人對「姑息療護」、「支持性照護」和「安寧療護」的表現,發現ChatGPT最佳,Bing Chat最差。雖然ChatGPT準確性高,仍有錯誤和遺漏,參考資料不可靠,易讀性待提升。研究強調AI在提供姑息療護資訊時存在問題,呼籲進一步研究以提升其準確性和可靠性。 PubMed DOI

越來越多病患用AI聊天機器人查檢驗結果,因為方便又好用。但研究發現,聊天機器人解釋不夠清楚、常錯誤。雖然有同理心,處理複雜問題時容易出錯,有時還會誤判病情。雖有免責聲明,病患仍可能相信錯誤資訊。必須進一步研究改進,確保病患了解並避免給醫療系統帶來負擔。 PubMed DOI

這項分析評估了AI文本生成器的表現,特別是ChatGPT和Google Gemini在回答臨床問題時的表現。結果顯示,ChatGPT提供的文獻資訊相對準確,但在臨床內容上有不一致的情況。相比之下,Google Gemini則產生了完全虛構的引用和摘要。雖然這兩個工具的回應看起來可信,但實際上存在不準確性,這讓它們作為臨床資訊來源的可靠性受到質疑。 PubMed DOI

這項研究探討了人工智慧(AI)在印度等多元文化環境中,如何改善臨終關懷(EOLC)資訊的獲取。研究比較了ChatGPT和Google Gemini生成的病人資訊手冊(PILs),分析了可讀性、情感、準確性、完整性和適用性等因素。 主要發現顯示,Google Gemini在可讀性和可操作性上優於ChatGPT,兩者在情感表達、準確性和完整性上都表現良好。研究強調AI在提升EOLC病人教育的潛力,並呼籲持續改進以確保具備同情心和文化敏感性。 PubMed DOI

這項研究全面評估了多款AI聊天機器人(如ChatGPT®、Bard®、Gemini®、Copilot®和Perplexity®)生成的醫療資訊的可讀性和質量。結果顯示,Bard®的可讀性最佳,而Gemini®最難閱讀。所有聊天機器人的回應都超過了建議的六年級閱讀水平,顯示病人教育材料的可及性需改進。雖然Perplexity®在質量評估中得分最高,但Gemini®的整體質量得分最佳。這強調了確保AI生成的健康資訊既易讀又高質量的重要性,以有效教育病人。 PubMed DOI

這項研究比較了AI聊天機器人(ChatGPT和Google Gemini)生成的病患教育材料與傳統病患資訊手冊(PILs)在眼科手術局部麻醉方面的效果。專家評估發現,雖然AI提供的語言較簡單且易懂,但傳統PILs在完整性和可讀性上表現更佳。統計分析顯示,ChatGPT在準確性和完整性上稍勝於Google Gemini,但兩者都不及PILs。值得一提的是,Google Gemini的情感語調最為正面。研究結果顯示,AI聊天機器人可作為病患教育的輔助工具,幫助提升病患的理解與決策能力。 PubMed DOI

這項研究探討AI聊天機器人對骨肉瘤患者護理的影響,分析其風險與好處。研究者向三個聊天機器人提出與診斷、治療和康復相關的問題,並根據五個指標評估其回答。結果顯示,聊天機器人在相關性和平衡性方面表現良好,但在數據基礎、完整性和事實準確性上得分較低。GPT-4在同理心方面得分最高,但在治療和康復問題的可行性較低。整體而言,雖然AI有潛力,但在準確性和可及性上仍有待改善,影響其臨床應用。 PubMed DOI