原始文章

這項研究評估了三款AI聊天機器人—ChatGPT、Bard和Bing—在提供有關輸精管結紮手術資訊的效果。研究者向每個機器人提出十個常見問題,並由三位泌尿科醫生根據回答的清晰度、準確性和證據基礎進行評分。結果顯示,ChatGPT的表現最佳,平均評分為1.367,明顯優於Bard和Bing。整體來看,這些AI聊天機器人能提供大部分準確的資訊,對患者而言是有用的資源,尤其是ChatGPT最為準確且簡潔。 PubMed DOI


站上相關主題文章列表

研究發現AI聊天機器人ChatGPT在提供病人諮詢時準確度約60%,但回答有變異性和不一致性。機器人缺乏參考資料,解釋錯誤和引用不當。使用AI提供醫療建議要謹慎,需進一步培訓和改進後才可靠。 PubMed DOI

研究比較了ChatGPT和Bard兩個AI聊天機器人在眼科手術資訊上的表現。ChatGPT準確性較佳,但兩者都缺乏不良事件發生機率資訊。雖提供易懂高質量資訊,但解釋部分仍有挑戰。 PubMed DOI

研究比較ChatGPT和Bard等平台的AI回應與泌尿學官方病人教育資料,發現AI回應在準確性、全面性、清晰度和實用性方面表現較佳。然而,可讀性較差。雖AI被視為可靠資訊來源,但閱讀難度可能限制普羅大眾使用。 PubMed DOI

研究比較了ChatGPT-3.5和Google Bard在回答血管手術相關問題時的表現,發現ChatGPT的回答更準確完整,易讀且適合大專程度;Bard則適合高中程度但品質較低。ChatGPT提供較長回答,顯示在血管手術病人教育上有潛力,但仍需進一步研究改進。 PubMed DOI

研究發現,ChatGPT 3.5和ChatGPT 4在處理勃起功能障礙相關問題時比BARD更準確。建議加強人工智慧醫學資訊的品質,以提供可靠的勃起功能障礙資訊。 PubMed DOI

人工智慧聊天機器人如ChatGPT對醫療資訊分享有顯著影響,尤其在泌尿學領域,像IPP手術。研究發現,ChatGPT在回答IPP手術問題時,有70%的回答優秀,20%令人滿意,只需少量澄清,但也有10%需要大量澄清。總體而言,ChatGPT在提供基於證據的資訊給患者方面有潛力,但仍有改進的空間。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

這項研究探討了開放存取的人工智慧軟體ChatGPT在回答與骨科手術相關的病人問題的準確性。研究聚焦於六種手術,包括前交叉韌帶重建和全髖關節置換等。研究者向ChatGPT提出標準問題,並將其回答與專家意見比較,結果顯示平均得分為2.43,顯示與專家意見有一定一致性。研究指出,ChatGPT可能成為病人了解手術選擇的有用工具,但仍需進一步研究以驗證結果並探討其在外科實踐中的應用。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT和Google Bard在提供前列腺癌教育資訊的表現。研究發現,所有大型語言模型的準確性相似,但ChatGPT-3.5在一般知識上表現優異。ChatGPT-4的回答則更全面,而Bard的回答最易讀,獲得最高的易讀性分數。總體來說,這些AI模型雖無法取代醫療專業人員,但能有效協助病人了解前列腺癌的相關知識。 PubMed DOI