原始文章

患者常常難以辨識自己的症狀,這可能會延誤就醫。研究發現,35-75%的患者會在就診前尋求線上資訊,因此像ChatGPT-3.5這類的人工智慧工具變得相當重要。本研究評估了GPT-3.5在急性泌尿科疾病分診的有效性,針對六種疾病創建了472個查詢,並由九位泌尿科醫生評估。結果顯示,GPT-3.5在診斷和行動方案方面表現良好,但在資訊質量上仍有改進空間,特別是在來源和風險評估方面。總體而言,GPT-3.5顯示出作為分診工具的潛力,但需提升透明度和資訊質量。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-3在AUA SASP問題上表現不錯,2021年回答更多問題,且提供合理理由。隨著問題降低,表現有進步。雖然一些一級問題有困難,但顯示潛力作為教育工具,需進一步學習。 PubMed DOI

人工智慧,特別是ChatGPT,已經被評估其在回答小兒泌尿科諮詢方面的準確性。研究發現,ChatGPT提供的回答大多正確,特別是當基於歐洲泌尿學會指南的強烈建議時。這個人工智慧的回應是一致的,展現了在醫療保健行業中使用的潛力,儘管存在一些限制。 PubMed DOI

OpenAI開發的AI ChatGPT提供泌尿系統疾病資訊,內容豐富但治療資訊品質中等,且來源不明。使用時要小心,可能有偏見且資訊來源不透明。建議使用者謹慎評估資訊可信度。 PubMed DOI

研究評估了ChatGPT在泌尿學診斷上的表現,結果顯示其回答有部分正確但缺乏細節,有時提供不必要的建議。專家指出,ChatGPT的答案有時準確、有時不完整、有時含糊、偶爾會誤導。總結來說,ChatGPT在這方面表現是複雜多變的。 PubMed DOI

研究評估了ChatGPT在泌尿學領域的表現,發現版本4比版本3.5在回答問題上更好。雖然在辯論主題上有差異,但在提供患者醫學建議方面相似。ChatGPT可快速回答非專業人士問題,但不可取代醫療診斷或治療決策。 PubMed DOI

研究發現ChatGPT對男性BPE相關下尿路症狀的回應準確,比參考資源表現好。ChatGPT回答88問題,F1分數0.79,精確度0.66,召回率0.97。質量評分高,中位數得分4。檢查者一致性良好。ChatGPT可用於教育患者,但不宜完全依賴。需進一步研究人工智慧在泌尿學患者教育的效用。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了ChatGPT在回應泌尿科病人訊息的有效性,結果顯示其回應中有47%適合用於病人溝通。分析指出,對於簡單問題,56%的回應被認為可接受;但對於較複雜的問題,只有34%被認可。評估標準包括準確性、完整性、有幫助性、可理解性及潛在傷害。總體來看,雖然ChatGPT能協助管理病人訊息,減輕醫療團隊負擔,但表現會因問題複雜度而異。隨著技術進步,預期其回應品質會進一步提升。 PubMed DOI

這篇評論評估了GPT-4在尿路結石診斷與治療問題上的表現,並與歐洲泌尿學會(EAU)指導方針進行比較。雖然GPT-4的回答大致符合指導方針,但有六個回答缺少關鍵內容,八個則包含錯誤資訊。模型在初步診斷和治療計劃上表現相對安全,但在預防性治療的複雜性上表現不佳,未能完全遵循EAU的策略。總體而言,GPT-4在泌尿科問題上顯示潛力,但仍需改進準確性和臨床相關性。 PubMed DOI

這項研究評估了ChatGPT對上尿路尿路上皮癌(UTUC)病人常見問題的回應質量。共15個問題被分為一般資訊、症狀與診斷、治療及預後。泌尿科醫生根據五個標準評分,結果顯示平均得分為3.93,其中一般資訊得分最高(4.14),治療相關回應得分最低(3.68)。雖然ChatGPT能提供基本資訊,但在治療問題上未完全滿足需求,且有安全隱患,建議在病人教育中謹慎使用。 PubMed DOI