原始文章

這項研究比較了ChatGPT和Bing AI在回答腎結石治療問題的表現,依據美國泌尿學會(AUA)的指導方針進行。結果顯示,ChatGPT在回應的清晰度和相關性上優於Bing AI,但Bing AI則提供了參考資料,讓其在資料來源質量上得分較高。兩者都未提供術前檢測建議,且在某些治療建議上與指導方針不符。研究建議進一步探討這些聊天機器人在泌尿醫療的應用潛力。 PubMed DOI


站上相關主題文章列表

ChatGPT是一個懂得處理自然語言的AI程式,經過評估後對泌尿結石知識有一定了解,可供病人參考。透過泌尿學協會網站和歐洲泌尿學會指南,兩位泌尿科醫師評分後,發現94.6%的常見問題都被完全正確回答,沒有錯誤。83.3%的歐洲泌尿學會問題被評為1級,顯示ChatGPT的準確性。在泌尿科醫師監督下使用ChatGPT,可以幫助病人更了解泌尿結石。 PubMed DOI

<b><i>摘要:</i></b> 研究探討ChatGPT在泌尿科結石門診中作為患者諮詢工具的效益。結果顯示ChatGPT在準確性、同理心、完整性和實用性方面表現優異,僅在同理心稍有差異。雖然ChatGPT對患者有幫助,仍需確保資訊正確性。建議建立常見問題解答庫,打造更完善的患者諮詢聊天機器人。 PubMed DOI

研究比較ChatGPT和Bard等平台的AI回應與泌尿學官方病人教育資料,發現AI回應在準確性、全面性、清晰度和實用性方面表現較佳。然而,可讀性較差。雖AI被視為可靠資訊來源,但閱讀難度可能限制普羅大眾使用。 PubMed DOI

研究發現OpenAI的ChatGPT在診斷腎結石時表現良好,尤其在回答各種難度問題時準確度高。經過2週後,模型學習能力明顯提升。雖然在泌尿學診斷有潛力,但仍需改進,尤其是處理複雜問題。研究建議謹慎將人工智慧應用於醫療保健領域。 PubMed DOI

研究比較四個AI聊天機器人對泌尿學指南中腎結石問題的回答表現,ChatGPT 4.0和Perplexity得分較高,Bard表現較差。ChatGPT 4.0和Perplexity常引用指南,顯示它們對醫學指南的一致性。結果顯示,這些AI聊天機器人在泌尿結石領域可能是醫師有用的資訊工具。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Bard和Bing—在提供有關輸精管結紮手術資訊的效果。研究者向每個機器人提出十個常見問題,並由三位泌尿科醫生根據回答的清晰度、準確性和證據基礎進行評分。結果顯示,ChatGPT的表現最佳,平均評分為1.367,明顯優於Bard和Bing。整體來看,這些AI聊天機器人能提供大部分準確的資訊,對患者而言是有用的資源,尤其是ChatGPT最為準確且簡潔。 PubMed DOI

這項研究評估了五款AI聊天機器人(GPT-4、Claude、Mistral、Google PaLM和Grok)對腎結石相關問題的回答質量。研究透過Google Trends找出熱門搜尋詞,並針對每個機器人提供25個查詢。分析工具包括DISCERN、PEMAT-P等。結果顯示,無一機器人的回答達到理想的可理解性標準。Grok在易懂性上表現最佳,而GPT-4則最難理解。整體來看,這些聊天機器人有潛力改善醫療溝通與病人理解。 PubMed DOI

這篇評論評估了GPT-4在尿路結石診斷與治療問題上的表現,並與歐洲泌尿學會(EAU)指導方針進行比較。雖然GPT-4的回答大致符合指導方針,但有六個回答缺少關鍵內容,八個則包含錯誤資訊。模型在初步診斷和治療計劃上表現相對安全,但在預防性治療的複雜性上表現不佳,未能完全遵循EAU的策略。總體而言,GPT-4在泌尿科問題上顯示潛力,但仍需改進準確性和臨床相關性。 PubMed DOI

大型語言模型(LLM)聊天機器人被用來提供泌尿科疾病資訊,特別是良性前列腺增生手術。研究評估了四個聊天機器人的資訊質量,結果顯示未提示時資訊質量中等,但使用特定提示後顯著改善。回應準確性高達98%,但可讀性較差,超過大多數美國人的閱讀水平。總體來看,這些聊天機器人有助於患者教育,但需注意提示方式和語言複雜性,以提升其效益。 PubMed DOI