原始文章

這項研究評估了GPT-4在總結介入放射學報告的效果,旨在幫助外行人理解並翻譯醫學文本。研究總結了200份報告,並用Flesch-Kincaid閱讀水平和Flesch閱讀容易度分數來評估可讀性。結果顯示,總結後的可讀性明顯改善,外行人的理解分數也從2.5提升至4.3。雖然翻譯成其他語言後誤資訊略有增加,但關鍵錯誤資訊並未顯著上升。整體而言,GPT-4在提升報告可讀性和病人溝通方面展現了潛力。 PubMed DOI


站上相關主題文章列表

這項研究評估了多種大型語言模型在回答放射科考試問題的表現,特別是GPT-4。分析了150道選擇題,結果顯示GPT-4的準確率達83.3%,明顯優於其他模型,如Claude(62%)、Bard(54.7%)、Tongyi Qianwen(70.7%)和Gemini Pro(55.3%)。研究指出,模型表現因問題類型和醫學專科而異,GPT-4在簡單及複雜問題上均表現良好。雖然GPT-4和Tongyi Qianwen在醫學教育上有潛力,但仍需專門訓練數據以提升在放射科的有效性。 PubMed DOI

這項研究評估了一本教科書與GPT-4在非創傷性脊髓損傷(NTSCI)方面的可讀性與可靠性,特別針對ABPMR認證。主要發現包括: 1. 教科書可讀性分數為14.5,GPT-4為17.3,顯示GPT-4的解釋較複雜(p < 0.001)。 2. GPT-4的解釋中有86%屬於「非常困難」,教科書則為58%(p = 0.006)。 3. GPT-4能簡化九個複雜解釋,保持字數不變,顯示其適應性。 4. GPT-4的準確率為96%,顯著優於GPT-3.5的84%(p = 0.046)。 總體而言,研究顯示GPT-4在醫學教育中具潛力,能提供準確且易懂的解釋。 PubMed DOI

這項研究探討了GPT-4在放射科報告中檢測和修正錯誤的潛力,特別針對頭部CT掃描。隨著放射科醫師的工作壓力增加,GPT-4在錯誤檢測方面表現優異,解釋性錯誤敏感度達84%,事實性錯誤敏感度達89%。相比之下,人類讀者的表現較差,檢查時間也較長。雖然GPT-4在識別錯誤時有些假陽性,但仍顯示出其在減輕醫師負擔和提升準確度的潛力,值得在臨床實踐中進一步探索。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

這項研究發現,用GPT-4簡化腫瘤放射科報告後,病患閱讀更快、理解更好,醫病溝通也更順暢。結果顯示,像GPT-4這類AI工具,能有效提升醫療溝通品質,幫助病患更容易取得和理解複雜醫療資訊,進而改善治療成效。 PubMed DOI

PRECISE 框架用 GPT-4 把放射科報告改寫成六年級程度,讓病人更容易看懂。研究顯示,這方法不但提升報告的可讀性,醫師和一般人也都覺得內容清楚又可靠。這有助於病人了解自己的檢查結果,推動以病人為主的醫療,而且不會增加醫師的工作量。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

這項研究用 GPT-4(透過 Azure)把荷蘭文放射科報告簡化成 B1 等級,讓病患更容易看懂。經過專家審查後,AI 生成的報告不只正確,病患也更滿意、理解度更高,大多數人都比較喜歡簡化版。這方法能幫助醫病溝通,減輕醫師負擔,也讓病患能做出更有根據的決定。 PubMed DOI

**重點摘要:** 這項研究評估了GPT-4將婦科手術報告簡化給病人閱讀的能力。簡化後的報告有助於病人更了解手術過程和結果,但臨床專家也指出醫療正確性方面有疑慮。雖然AI生成的摘要在病人衛教上很有潛力,但在常規用於術後照護和出院系統前,仍需謹慎監督以確保醫療內容的精確性。 PubMed DOI

這項研究發現,用ChatGPT簡化放射科報告後,病人更容易看懂內容,覺得資訊更清楚、語氣更親切,也更有信心和醫師討論、參與決策。AI工具有助於讓醫療資訊更貼近病人需求,但還需要更多研究來確保所有人都適用且正確。 PubMed DOI