原始文章

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-4提供的玻璃體視網膜手術資訊準確但難懂,建議不完全依賴AI。需加強專業領域資訊的可信度與易讀性,並了解AI在健康建議上的限制。 PubMed DOI

研究比較不同影像學模式的放射學報告複雜程度,並試驗ChatGPT簡化報告至八年級閱讀水準。分析400份報告後發現,CT和MRI報告比US和XR較難。ChatGPT成功簡化報告,減少字數、提高可讀性,並降低閱讀難度。研究顯示ChatGPT在簡化放射學報告以提升患者理解上相當有效。 PubMed DOI

研究評估ChatGPT回答患者影像問題的表現,結果顯示準確性約83%,提示可提高。回答一致性隨提示增加而改善,大多相關。易讀性高,但複雜。ChatGPT有潛力提供正確相關資訊,但需監督。提示可提供針對性資訊,但易讀性未改善。需進一步研究克服限制,更適用於醫療。 PubMed DOI

研究比較GPT-3和GPT-4在放射學病人教育上的效果,結果顯示兩者都提供準確的答案,但GPT-4稍微更優。建議這些模型可用於放射學病人教育,但也要留意可能的限制。 PubMed DOI

研究評估了ChatGPT製作的放射學教育手冊對病患的準確性和可靠性。結果顯示30%的手冊有錯誤,如缺少鎮靜和併發症資訊。儘管主題一致,但使用者和程序間仍有不一致。ChatGPT的手冊有臨床應用價值,但需要改進以提高正確性和一致性。 PubMed DOI

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

這項研究評估了GPT-4在創建針對患者友好的介入放射學教育材料的能力。研究人員回顧了10個程序,並生成通俗易懂的說明,這些說明由臨床醫師和非臨床評估者評估。結果顯示,大多數說明被認為適當,特定程序如腹腔穿刺和透析導管放置獲得高評價,但動脈栓塞的說明則評價較低。可讀性評估顯示,GPT-4的說明更易理解,顯示其在提升健康素養和患者教育方面的潛力。 PubMed DOI

這項研究評估了ChatGPT-4在抗凝治療管理方面的準確性,特別針對接受胃腸道手術的患者,並與ChatGPT-3.5及增強檢索生成模型(ChatGPT4-RAG)比較。結果顯示,ChatGPT-4的完全準確率為30.5%,而ChatGPT4-RAG則達到75%。儘管如此,研究指出75%的準確率仍不足以獨立做臨床決策,AI應視為醫生的輔助工具,並需持續評估以保障病人隱私及醫病關係。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI

微創脊椎手術(MISS)近年來成為傳統手術的替代選擇,因其切口小、恢復快及併發症少等優勢。隨著患者在網上尋求MISS資訊,資訊的清晰度與準確性變得重要。研究發現,許多相關網頁內容的可讀性超過建議水平,讓患者難以理解。本研究評估ChatGPT對MISS常見問題的回答在臨床適宜性和可讀性方面的表現。結果顯示,雖然術前和術後問題的回答通常適宜,但手術中問題的回答有一半被認為不可靠。未來的AI工具應注重清晰溝通,並需醫療專業人員的監督。 PubMed DOI