原始文章

當患者被診斷為泌尿系統癌症時,常會尋求線上資源,但許多醫生撰寫的資料過於複雜,超過了建議的閱讀水平,導致患者轉向不受監管的來源,如AI聊天機器人。本研究比較了ChatGPT、Epic和泌尿護理基金會針對前列腺癌、膀胱癌和腎臟癌的教育材料。結果顯示,Epic的材料符合閱讀水平,而UCF和ChatGPT則不符合。質量方面,ChatGPT表現優秀,建議AI可提升患者教育的可及性與實用性,幫助患者共同決策。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在教育患者方面表現良好,回答問題準確且有幫助,78.6%與官方資料相符。雖然是有用的教育工具,但醫護人員需留意患者可能誤解資訊。总体而言,ChatGPT對患者有正面幫助。 PubMed DOI

研究發現,人工智慧聊天機器人提供的泌尿系惡性腫瘤資訊通常準確,但指示不清晰,內容閱讀難度高。使用者可能難以理解並採取行動。 PubMed DOI

研究比較了ChatGPT和UCF製作的男性健康教育資料,發現ChatGPT回答較長、較複雜,但未達易讀標準。簡化後,ChatGPT的易讀性有所提升,甚至有些主題達標。ChatGPT全面性較佳,但易懂性較差。建議透過特定提示改善ChatGPT的教育資料,讓其更符合標準且易懂。 PubMed DOI

研究比較ChatGPT和Bard等平台的AI回應與泌尿學官方病人教育資料,發現AI回應在準確性、全面性、清晰度和實用性方面表現較佳。然而,可讀性較差。雖AI被視為可靠資訊來源,但閱讀難度可能限制普羅大眾使用。 PubMed DOI

研究發現使用ChatGPT提供攝護腺癌資訊效果不錯。醫生評分回答準確度、完整性和清晰度,獨立評審員認為簡化摘要正確。公眾認為簡化摘要易懂。結論是ChatGPT有潛力幫助攝護腺癌患者,但需提升準確性、完整性、清晰度和易讀性。 PubMed DOI

研究使用AI聊天機器人改善網路上有關癌症的健康資訊易讀性,以ChatGPT 4.0修改不同癌症網站內容,提升至高中新生水準。AI內容保持高準確性、相似性和品質,有效提升病患健康資訊存取和理解,可能減少健康素養不同帶來的醫療差異。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

在人工智慧時代,許多病人會在線上尋找健康資訊。本研究評估了三個人工智慧聊天機器人(ChatGPT、Gemini、Copilot)提供的泌尿生殖系統癌症治療資訊的可靠性。評審結果顯示,ChatGPT和Gemini的資訊質量中等,分別得41分和42分,而Copilot得分較低(35分)。整體可理解性偏低,只有Gemini的可行性得分達60%。這顯示病人需謹慎使用這些工具,因為它們提供的資訊質量和可靠性普遍不高,且難以理解。 PubMed DOI

人工智慧(AI)在醫療領域的應用,特別是針對腎癌的病人教育材料(PEMs),帶來了顯著變化。本研究比較了ChatGPT 4.0、Gemini AI和Perplexity AI生成的資訊準確性與可讀性,並與美國泌尿學會(AUA)和歐洲泌尿學會(EAU)的PEMs進行對照。結果顯示,AUA的PEM可讀性最佳,AI生成的內容雖然準確,但在治療資訊上有些小遺漏。雖然AI能簡化內容,但在病人教育中使用時仍需謹慎,以免造成誤解。 PubMed DOI

大型語言模型(LLM)聊天機器人被用來提供泌尿科疾病資訊,特別是良性前列腺增生手術。研究評估了四個聊天機器人的資訊質量,結果顯示未提示時資訊質量中等,但使用特定提示後顯著改善。回應準確性高達98%,但可讀性較差,超過大多數美國人的閱讀水平。總體來看,這些聊天機器人有助於患者教育,但需注意提示方式和語言複雜性,以提升其效益。 PubMed DOI