原始文章

人工智慧(AI)在醫療領域的應用,特別是針對腎癌的病人教育材料(PEMs),帶來了顯著變化。本研究比較了ChatGPT 4.0、Gemini AI和Perplexity AI生成的資訊準確性與可讀性,並與美國泌尿學會(AUA)和歐洲泌尿學會(EAU)的PEMs進行對照。結果顯示,AUA的PEM可讀性最佳,AI生成的內容雖然準確,但在治療資訊上有些小遺漏。雖然AI能簡化內容,但在病人教育中使用時仍需謹慎,以免造成誤解。 PubMed DOI


站上相關主題文章列表

研究比較了泌尿學協會提供的腎結石患者資訊材料(PIMs)和AI模型生成的內容,發現PIMs更易讀。AI模型準確但可讀性較差,GPT-4比GPT-3.5更準確。雖PIMs準確,AI模型有遺漏細節。總結來說,PIMs比AI生成的內容更易讀,但各有優缺點。 PubMed DOI

研究發現使用ChatGPT提供攝護腺癌資訊效果不錯。醫生評分回答準確度、完整性和清晰度,獨立評審員認為簡化摘要正確。公眾認為簡化摘要易懂。結論是ChatGPT有潛力幫助攝護腺癌患者,但需提升準確性、完整性、清晰度和易讀性。 PubMed DOI

研究使用AI聊天機器人改善網路上有關癌症的健康資訊易讀性,以ChatGPT 4.0修改不同癌症網站內容,提升至高中新生水準。AI內容保持高準確性、相似性和品質,有效提升病患健康資訊存取和理解,可能減少健康素養不同帶來的醫療差異。 PubMed DOI

這項研究評估了大型語言模型(LLMs)驅動的聊天機器人,如ChatGPT 3.5、CoPilot和Gemini,在提供前列腺癌資訊的有效性,並與官方病人指南進行比較。研究使用25個專家驗證的問題,根據準確性、及時性、完整性和可理解性進行評估。結果顯示,ChatGPT 3.5的表現優於其他模型,證明其為可靠的資訊來源。研究強調在健康領域持續創新AI應用的重要性,並建議未來探討AI回應中的潛在偏見及其對病人結果的影響。 PubMed DOI

本研究評估了三個大型語言模型(LLMs)生成的泌尿科病人資訊小冊子(PILs)品質,包括ChatGPT-4、PaLM 2和Llama 2。針對包皮環切術、腎切除術、過動膀胱症候群及經尿道前列腺切除術(TURP)進行評估。結果顯示,PaLM 2的PILs品質最佳,平均得分3.58,且最易閱讀。雖然LLMs能減輕醫療人員負擔,但內容仍需臨床醫師審查,且閱讀水平偏高,顯示需改進算法或提示設計。病人對這些小冊子的滿意度尚未評估。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT和Google Bard在提供前列腺癌教育資訊的表現。研究發現,所有大型語言模型的準確性相似,但ChatGPT-3.5在一般知識上表現優異。ChatGPT-4的回答則更全面,而Bard的回答最易讀,獲得最高的易讀性分數。總體來說,這些AI模型雖無法取代醫療專業人員,但能有效協助病人了解前列腺癌的相關知識。 PubMed DOI

在人工智慧時代,許多病人會在線上尋找健康資訊。本研究評估了三個人工智慧聊天機器人(ChatGPT、Gemini、Copilot)提供的泌尿生殖系統癌症治療資訊的可靠性。評審結果顯示,ChatGPT和Gemini的資訊質量中等,分別得41分和42分,而Copilot得分較低(35分)。整體可理解性偏低,只有Gemini的可行性得分達60%。這顯示病人需謹慎使用這些工具,因為它們提供的資訊質量和可靠性普遍不高,且難以理解。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI

當患者被診斷為泌尿系統癌症時,常會尋求線上資源,但許多醫生撰寫的資料過於複雜,超過了建議的閱讀水平,導致患者轉向不受監管的來源,如AI聊天機器人。本研究比較了ChatGPT、Epic和泌尿護理基金會針對前列腺癌、膀胱癌和腎臟癌的教育材料。結果顯示,Epic的材料符合閱讀水平,而UCF和ChatGPT則不符合。質量方面,ChatGPT表現優秀,建議AI可提升患者教育的可及性與實用性,幫助患者共同決策。 PubMed DOI