原始文章

大型語言模型(LLM)聊天機器人被用來提供泌尿科疾病資訊,特別是良性前列腺增生手術。研究評估了四個聊天機器人的資訊質量,結果顯示未提示時資訊質量中等,但使用特定提示後顯著改善。回應準確性高達98%,但可讀性較差,超過大多數美國人的閱讀水平。總體來看,這些聊天機器人有助於患者教育,但需注意提示方式和語言複雜性,以提升其效益。 PubMed DOI


站上相關主題文章列表

研究發現,人工智慧聊天機器人提供的泌尿系惡性腫瘤資訊通常準確,但指示不清晰,內容閱讀難度高。使用者可能難以理解並採取行動。 PubMed DOI

研究評估了LLMs在回答BPH問題的表現,結果顯示它們具有高準確性和可重複性,對提供BPH相關信息有價值,可幫助改善健康素養和支持患者。 PubMed DOI

研究發現ChatGPT對男性BPE相關下尿路症狀的回應準確,比參考資源表現好。ChatGPT回答88問題,F1分數0.79,精確度0.66,召回率0.97。質量評分高,中位數得分4。檢查者一致性良好。ChatGPT可用於教育患者,但不宜完全依賴。需進一步研究人工智慧在泌尿學患者教育的效用。 PubMed DOI

這項研究評估了大型語言模型(LLMs)驅動的聊天機器人,如ChatGPT 3.5、CoPilot和Gemini,在提供前列腺癌資訊的有效性,並與官方病人指南進行比較。研究使用25個專家驗證的問題,根據準確性、及時性、完整性和可理解性進行評估。結果顯示,ChatGPT 3.5的表現優於其他模型,證明其為可靠的資訊來源。研究強調在健康領域持續創新AI應用的重要性,並建議未來探討AI回應中的潛在偏見及其對病人結果的影響。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

本研究評估了三個大型語言模型(LLMs)生成的泌尿科病人資訊小冊子(PILs)品質,包括ChatGPT-4、PaLM 2和Llama 2。針對包皮環切術、腎切除術、過動膀胱症候群及經尿道前列腺切除術(TURP)進行評估。結果顯示,PaLM 2的PILs品質最佳,平均得分3.58,且最易閱讀。雖然LLMs能減輕醫療人員負擔,但內容仍需臨床醫師審查,且閱讀水平偏高,顯示需改進算法或提示設計。病人對這些小冊子的滿意度尚未評估。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT和Google Bard在提供前列腺癌教育資訊的表現。研究發現,所有大型語言模型的準確性相似,但ChatGPT-3.5在一般知識上表現優異。ChatGPT-4的回答則更全面,而Bard的回答最易讀,獲得最高的易讀性分數。總體來說,這些AI模型雖無法取代醫療專業人員,但能有效協助病人了解前列腺癌的相關知識。 PubMed DOI

越來越多患者在網上尋找健康資訊,尤其是像佩羅尼氏病這種敏感疾病。大型語言模型(LLM)聊天機器人展現了提供資訊的潛力,但對於PD的準確性和可讀性仍不明朗。研究評估了四個LLM在回答PD查詢時的資訊質量,結果顯示在有提示的情況下,資訊質量提升至高水平,但平均閱讀水平為12.9年級,超過大多數患者的理解能力。雖然LLM在患者教育上有潛力,但仍需臨床背景和人類提示來提升效果,並需教育患者與醫生如何有效互動。 PubMed DOI

這項研究比較了ChatGPT和Bing AI在回答腎結石治療問題的表現,依據美國泌尿學會(AUA)的指導方針進行。結果顯示,ChatGPT在回應的清晰度和相關性上優於Bing AI,但Bing AI則提供了參考資料,讓其在資料來源質量上得分較高。兩者都未提供術前檢測建議,且在某些治療建議上與指導方針不符。研究建議進一步探討這些聊天機器人在泌尿醫療的應用潛力。 PubMed DOI