原始文章

這項研究評估了ChatGPT在提供放射性藥物外滲資訊的有效性。研究者向ChatGPT提出十五個問題,並進行三次詢問,兩位核醫學醫師和一位物理學家評估其回應的適當性和幫助性。結果顯示,ChatGPT的回應在93%的情況下非常有幫助,且評估者之間的一致性良好。雖然有87%的回應顯示輕微不一致,但大多數回應使用了經過驗證的來源,未發現AI幻覺。然而,回應與官方SNMMI立場存在顯著差異,顯示出對一致性需求的迫切性。 PubMed DOI


站上相關主題文章列表

研究發現AI聊天機器人ChatGPT在PET/CT掃描前後能回答病人問題,大多數回應適當且有用,但有些不一致。對敏感問題的回應具同理心。結果顯示ChatGPT有潛力取代核醫學人員,但需提升一致性。 PubMed DOI

研究評估ChatGPT回答患者影像問題的表現,結果顯示準確性約83%,提示可提高。回答一致性隨提示增加而改善,大多相關。易讀性高,但複雜。ChatGPT有潛力提供正確相關資訊,但需監督。提示可提供針對性資訊,但易讀性未改善。需進一步研究克服限制,更適用於醫療。 PubMed DOI

研究發現AI程式ChatGPT在協助患者和醫師管理甲狀腺結節上有正面效果。ChatGPT對患者提問的回答大多正確可靠,治療方法也被認為正確、安全且實用。ChatGPT可作為甲狀腺結節患者的有用資源,但不可取代主治醫師的地位。 PubMed DOI

研究分析了AI聊天機器人對癌症患者放射性核素治療的回應。結果顯示,回應易讀性高,但可靠性有待提升。建議加入參考資料以提高理解度,強調諮詢核醫醫師的重要性,以獲得準確建議。參考資料可提升患者信心和滿意度。 PubMed DOI

商業供應商已經開發了各種人工智慧工具,包括放射腫瘤學。研究發現,基於人工智慧的聊天機器人ChatGPT在放射腫瘤學門診部表現良好,對常見問題準確率達80%,對多重選擇問題達90%。ChatGPT可提供準確的放射腫瘤學知識,對該領域教育有潛在影響。 PubMed DOI

研究發現ChatGPT在提供實驗室醫學資訊上表現優異,75.9%的評估者偏好它的回答,認為提供全面且正確的資訊。相較之下,醫學專業人士的回答則以簡潔見長。ChatGPT可能在回答醫學問題上勝過專業人士,但仍需進一步研究確認其實用性,並探索整合到醫療保健中的可能性。 PubMed DOI

這項研究評估了ChatGPT 3.5在放射腫瘤學的表現,發現其回答病人問題、總結研究及文獻回顧的能力常常不準確。具體來說,只有39.7%的病人問題回答被認為正確,35.0%的研究摘要準確率,完整文本時提高到43.3%。此外,超過一半的標準護理實踐研究是虛構的。研究結論指出,目前不應依賴ChatGPT作為放射腫瘤學的可信資源,但未來版本可能會改善準確性和可靠性。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4和Google的Bard在回答前列腺癌新療法<sup>177</sup>Lu-PSMA-617的準確性、可讀性和簡潔性。結果顯示,ChatGPT-4的回答準確性較高(得分2.95對2.73),但Bard的可讀性更佳(得分2.79對2.94)。兩者在簡潔性上相似。ChatGPT-4的錯誤資訊較少(16.6%),而Bard則有較多誤導性資訊。總體來看,這兩個AI仍需改進,才能成為病人尋求相關資訊的可靠來源。 PubMed DOI

這項研究評估了ChatGPT在解答肢端肥大症相關問題的可用性與可靠性。研究分為兩部分:首先,提出35個病人常見問題;其次,使用醫學術語呈現四個病人案例。三位專家根據安全性、可靠性、正確性和可用性對ChatGPT的回答進行評分。 結果顯示,ChatGPT在回答病人問題的正確性平均得分為6.78,可靠性得分為6.69。雖然它能有效回應相關詢問,但不應被視為病人管理的獨立可靠來源,建議作為醫療專業人員的輔助工具。 PubMed DOI

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI