原始文章

這項研究評估了五款AI聊天機器人(GPT-4、Claude、Mistral、Google PaLM和Grok)對腎結石相關問題的回答質量。研究透過Google Trends找出熱門搜尋詞,並針對每個機器人提供25個查詢。分析工具包括DISCERN、PEMAT-P等。結果顯示,無一機器人的回答達到理想的可理解性標準。Grok在易懂性上表現最佳,而GPT-4則最難理解。整體來看,這些聊天機器人有潛力改善醫療溝通與病人理解。 PubMed DOI


站上相關主題文章列表

研究發現,ChatGPT提供的攝護腺癌資訊雖多,但準確性和品質較差,建議使用時要謹慎。未來需深入研究不同主題和語言模型,以提升人工智慧生成的患者資訊品質。 PubMed DOI

ChatGPT是一個懂得處理自然語言的AI程式,經過評估後對泌尿結石知識有一定了解,可供病人參考。透過泌尿學協會網站和歐洲泌尿學會指南,兩位泌尿科醫師評分後,發現94.6%的常見問題都被完全正確回答,沒有錯誤。83.3%的歐洲泌尿學會問題被評為1級,顯示ChatGPT的準確性。在泌尿科醫師監督下使用ChatGPT,可以幫助病人更了解泌尿結石。 PubMed DOI

研究比較了泌尿學協會提供的腎結石患者資訊材料(PIMs)和AI模型生成的內容,發現PIMs更易讀。AI模型準確但可讀性較差,GPT-4比GPT-3.5更準確。雖PIMs準確,AI模型有遺漏細節。總結來說,PIMs比AI生成的內容更易讀,但各有優缺點。 PubMed DOI

<b><i>摘要:</i></b> 研究探討ChatGPT在泌尿科結石門診中作為患者諮詢工具的效益。結果顯示ChatGPT在準確性、同理心、完整性和實用性方面表現優異,僅在同理心稍有差異。雖然ChatGPT對患者有幫助,仍需確保資訊正確性。建議建立常見問題解答庫,打造更完善的患者諮詢聊天機器人。 PubMed DOI

研究比較ChatGPT和Bard等平台的AI回應與泌尿學官方病人教育資料,發現AI回應在準確性、全面性、清晰度和實用性方面表現較佳。然而,可讀性較差。雖AI被視為可靠資訊來源,但閱讀難度可能限制普羅大眾使用。 PubMed DOI

研究發現OpenAI的ChatGPT在診斷腎結石時表現良好,尤其在回答各種難度問題時準確度高。經過2週後,模型學習能力明顯提升。雖然在泌尿學診斷有潛力,但仍需改進,尤其是處理複雜問題。研究建議謹慎將人工智慧應用於醫療保健領域。 PubMed DOI

研究比較四個AI聊天機器人對泌尿學指南中腎結石問題的回答表現,ChatGPT 4.0和Perplexity得分較高,Bard表現較差。ChatGPT 4.0和Perplexity常引用指南,顯示它們對醫學指南的一致性。結果顯示,這些AI聊天機器人在泌尿結石領域可能是醫師有用的資訊工具。 PubMed DOI

這項研究評估了人工智慧(AI)聊天機器人提供的腎結石相關資訊的品質。聊天機器人通常提供高品質且準確的資訊,沒有錯誤資訊。然而,這些資訊呈現在較高階的閱讀水準,使得尋求健康資訊的消費者較難理解和採取行動。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI