原始文章

在人工智慧時代,許多病人會在線上尋找健康資訊。本研究評估了三個人工智慧聊天機器人(ChatGPT、Gemini、Copilot)提供的泌尿生殖系統癌症治療資訊的可靠性。評審結果顯示,ChatGPT和Gemini的資訊質量中等,分別得41分和42分,而Copilot得分較低(35分)。整體可理解性偏低,只有Gemini的可行性得分達60%。這顯示病人需謹慎使用這些工具,因為它們提供的資訊質量和可靠性普遍不高,且難以理解。 PubMed DOI


站上相關主題文章列表

研究發現,ChatGPT提供的攝護腺癌資訊雖多,但準確性和品質較差,建議使用時要謹慎。未來需深入研究不同主題和語言模型,以提升人工智慧生成的患者資訊品質。 PubMed DOI

研究發現,人工智慧聊天機器人提供的泌尿系惡性腫瘤資訊通常準確,但指示不清晰,內容閱讀難度高。使用者可能難以理解並採取行動。 PubMed DOI

消費者使用AI聊天機器人查詢癌症資訊,但資訊品質尚未經評估。研究使用驗證工具評估4個AI聊天機器人提供的癌症資訊,發現資訊品質良好、無錯誤,但易懂性中等、操作性較差。內容以大學程度撰寫。AI聊天機器人可提供正確資訊,但操作性有限,應視為醫療資訊輔助。 PubMed DOI

研究用DISCERN標準評估AI聊天機器人對常見癌症問題回答的品質,發現ChatGPT比Bing AI表現較好。AI在醫療上有潛力,但仍需改進,尤其在癌症等重要領域,以避免給患者和家人帶來誤解或壓力。 PubMed DOI

研究比較ChatGPT和Bard等平台的AI回應與泌尿學官方病人教育資料,發現AI回應在準確性、全面性、清晰度和實用性方面表現較佳。然而,可讀性較差。雖AI被視為可靠資訊來源,但閱讀難度可能限制普羅大眾使用。 PubMed DOI

研究分析了AI聊天機器人對癌症患者放射性核素治療的回應。結果顯示,回應易讀性高,但可靠性有待提升。建議加入參考資料以提高理解度,強調諮詢核醫醫師的重要性,以獲得準確建議。參考資料可提升患者信心和滿意度。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT和Google Bard在提供前列腺癌教育資訊的表現。研究發現,所有大型語言模型的準確性相似,但ChatGPT-3.5在一般知識上表現優異。ChatGPT-4的回答則更全面,而Bard的回答最易讀,獲得最高的易讀性分數。總體來說,這些AI模型雖無法取代醫療專業人員,但能有效協助病人了解前列腺癌的相關知識。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI