原始文章

這項研究評估了ChatGPT在生成前列腺癌相關醫療回應的表現。研究期間為2023年4月至6月,超過700名醫療腫瘤科和泌尿科醫師參與,且他們不知是在評估AI。結果顯示,602名受訪者在9個問題中有7個偏好AI生成的回應,但仍認為醫療網站更可信。98名受訪者對AI生成的複雜問題回應給予高評價,顯示臨床醫師欣賞AI的清晰度,但仍偏好傳統網站作為資訊來源。這提供了對臨床醫師評估AI內容的見解,並為未來的AI驗證研究提出了評估標準。 PubMed DOI


站上相關主題文章列表

研究發現,ChatGPT提供的攝護腺癌資訊雖多,但準確性和品質較差,建議使用時要謹慎。未來需深入研究不同主題和語言模型,以提升人工智慧生成的患者資訊品質。 PubMed DOI

研究發現Chat-GPT在提供攝護腺癌資訊方面有改善空間,尤其在診斷和治療建議上表現不佳。泌尿科醫師認為Chat-GPT的回答大多不正確或不夠完整。建議Chat-GPT需要更多訓練,才能提供更精確的攝護腺癌指引資訊。 PubMed DOI

研究評估了使用參考書回答結腸直腸癌相關問題的人工智慧模型ChatGPT。結果顯示ChatGPT回答可重複,但全面性和準確性不如專家。在放射療法和疼痛控制方面表現好,但在基本資訊和手術方面較弱。ChatGPT有潛力,但仍需進步才能達到專家水準,提供病患更完整的教育資訊。 PubMed DOI

研究發現ChatGPT在提供實驗室醫學資訊上表現優異,75.9%的評估者偏好它的回答,認為提供全面且正確的資訊。相較之下,醫學專業人士的回答則以簡潔見長。ChatGPT可能在回答醫學問題上勝過專業人士,但仍需進一步研究確認其實用性,並探索整合到醫療保健中的可能性。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

這項研究評估了ChatGPT對臨床問題的回答,與人類撰寫的網站Pearls4Peers.com進行比較,重點在可用性和可靠性。研究發現,ChatGPT的回答質量有顯著差異,約14%的回答被認為不實用,13%不準確。與人類來源相比,ChatGPT在可用性和可靠性方面的表現均不佳,超過30%的情況下表現不如人類。總體來看,這顯示在臨床決策中使用ChatGPT需謹慎。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

在2023年10月進行的研究中,評估了ChatGPT-4與ChatGPT-3.5在癌症治療建議的質量,特別針對前列腺癌、腎臟癌和膀胱癌。結果顯示,ChatGPT-4在提供更詳細和準確的建議方面表現優於3.5,建議批准率和與NCCN指導方針的一致性也更高。雖然ChatGPT-4的表現顯著改善,但研究強調AI工具不應取代專業醫療建議,使用時需謹慎。 PubMed DOI

這項研究評估了AI聊天機器人,特別是ChatGPT和Google Bard在提供前列腺癌教育資訊的表現。研究發現,所有大型語言模型的準確性相似,但ChatGPT-3.5在一般知識上表現優異。ChatGPT-4的回答則更全面,而Bard的回答最易讀,獲得最高的易讀性分數。總體來說,這些AI模型雖無法取代醫療專業人員,但能有效協助病人了解前列腺癌的相關知識。 PubMed DOI

這項研究探討了ChatGPT在遠距醫療管理轉移性前列腺癌的有效性,並與腫瘤科醫師進行比較,特別是在COVID-19疫情期間。研究分析了102名患者,重點在於ChatGPT在病歷記錄和決定面對面諮詢時的協助能力。結果顯示,ChatGPT與腫瘤科醫師在治療決策上有中等程度的一致性(Cohen's Kappa = 0.43, p < 0.001),診斷數量相似(中位數各為5,p = 0.12)。雖然結果顯示合理的一致性,但仍需進一步研究以了解其在醫療中的潛在應用。 PubMed DOI