原始文章

這項研究是首個評估ChatGPT在泌尿科急症問題上的有效性。研究分析了患者在社交媒體和網站上的常見問題,並根據歐洲泌尿學會的指導方針進行評估。結果顯示,在73個常見問題中,有72.6%獲得最高分5分,但基於指導方針的問題表現較差,只有54.8%達到5分。整體來看,ChatGPT能準確回答大多數常見問題,但在指導方針問題上表現不如預期。 PubMed DOI


站上相關主題文章列表

人工智慧,特別是ChatGPT,已經被評估其在回答小兒泌尿科諮詢方面的準確性。研究發現,ChatGPT提供的回答大多正確,特別是當基於歐洲泌尿學會指南的強烈建議時。這個人工智慧的回應是一致的,展現了在醫療保健行業中使用的潛力,儘管存在一些限制。 PubMed DOI

ChatGPT是一個懂得處理自然語言的AI程式,經過評估後對泌尿結石知識有一定了解,可供病人參考。透過泌尿學協會網站和歐洲泌尿學會指南,兩位泌尿科醫師評分後,發現94.6%的常見問題都被完全正確回答,沒有錯誤。83.3%的歐洲泌尿學會問題被評為1級,顯示ChatGPT的準確性。在泌尿科醫師監督下使用ChatGPT,可以幫助病人更了解泌尿結石。 PubMed DOI

這項研究評估了ChatGPT在回答有關攝護腺、腎臟、膀胱和睪丸癌症問題時的效果。從各種來源收集了常見問題,並使用全球質量評分(GQS)來評估回答。ChatGPT在處理一般詢問方面表現良好,但在回答符合歐洲泌尿學會(EAU)指南的問題時準確性較低。 PubMed DOI

研究評估了ChatGPT在泌尿學診斷上的表現,結果顯示其回答有部分正確但缺乏細節,有時提供不必要的建議。專家指出,ChatGPT的答案有時準確、有時不完整、有時含糊、偶爾會誤導。總結來說,ChatGPT在這方面表現是複雜多變的。 PubMed DOI

研究發現ChatGPT對泌尿道感染(UTIs)的回答準確率高,專家評分結果顯示,對於常見問題有96.2%的正確率,對於指引問題有89.7%的正確率。ChatGPT在回答問題時展現出高可靠性和一致性,不管是對於哪種類型的問題都表現良好。 PubMed DOI

研究發現ChatGPT對男性BPE相關下尿路症狀的回應準確,比參考資源表現好。ChatGPT回答88問題,F1分數0.79,精確度0.66,召回率0.97。質量評分高,中位數得分4。檢查者一致性良好。ChatGPT可用於教育患者,但不宜完全依賴。需進一步研究人工智慧在泌尿學患者教育的效用。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了ChatGPT對上尿路尿路上皮癌(UTUC)病人常見問題的回應質量。共15個問題被分為一般資訊、症狀與診斷、治療及預後。泌尿科醫生根據五個標準評分,結果顯示平均得分為3.93,其中一般資訊得分最高(4.14),治療相關回應得分最低(3.68)。雖然ChatGPT能提供基本資訊,但在治療問題上未完全滿足需求,且有安全隱患,建議在病人教育中謹慎使用。 PubMed DOI

這項研究評估了ChatGPT對女性泌尿學問題的回答準確性,使用了基於歐洲泌尿學會指導方針的常見問題清單。兩位經驗豐富的泌尿科醫生對回答進行評分,結果顯示97%的回答準確且充分,其中82.9%的問題獲得完整滿意的回覆。在尿失禁和盆腔疼痛綜合症等主題上,回答的重現性達到100%。總體來看,研究認為ChatGPT在解答女性泌尿學問題上表現優秀,成功率高達97%。 PubMed DOI

這項研究評估了ChatGPT在提供重建泌尿學資訊的有效性,重點在於資訊質量、錯誤資訊、可讀性及提示工程的影響。研究發現: - **資訊質量**:平均DISCERN分數為3.63,顯示健康資訊質量中等。 - **可讀性**:回應的可讀性相當於大學畢業生,可能影響某些病人的理解。 - **可理解性與可行性**:可理解性高達85.3%,但可行性僅37.2%,顯示資訊雖清晰但缺乏實用步驟。 - **錯誤資訊**:錯誤資訊極少,平均分數為1.23。 - **提示工程**:精煉提示可顯著改善回應質量與可理解性,且不增加錯誤資訊。 總體而言,ChatGPT-4o在重建泌尿學病人教育上有潛力,但仍需關注可行性與閱讀水平。 PubMed DOI