原始文章

這項研究評估了一本教科書與GPT-4在非創傷性脊髓損傷(NTSCI)方面的可讀性與可靠性,特別針對ABPMR認證。主要發現包括: 1. 教科書可讀性分數為14.5,GPT-4為17.3,顯示GPT-4的解釋較複雜(p < 0.001)。 2. GPT-4的解釋中有86%屬於「非常困難」,教科書則為58%(p = 0.006)。 3. GPT-4能簡化九個複雜解釋,保持字數不變,顯示其適應性。 4. GPT-4的準確率為96%,顯著優於GPT-3.5的84%(p = 0.046)。 總體而言,研究顯示GPT-4在醫學教育中具潛力,能提供準確且易懂的解釋。 PubMed DOI


站上相關主題文章列表

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究評估了GPT-4在回答疼痛管理相關的臨床藥理學問題上的表現。醫療專業人員提出了有關藥物相互作用、劑量和禁忌症的問題,GPT-4的回應在清晰度、詳細程度和醫學準確性上獲得了高評價。結果顯示,99%的參與者認為回應易懂,84%認為信息詳細,93%表示滿意,96%認為醫學準確。不過,只有63%認為信息完整,顯示在藥物動力學和相互作用方面仍有不足。研究建議開發專門的AI工具,結合即時藥理數據庫,以提升臨床決策的準確性。 PubMed DOI

脊髓刺激(SCS)是一種有效的慢性疼痛治療方法,但患者常有疑問。本研究探討ChatGPT對SCS常見問題的回答在可靠性、準確性和可理解性方面的表現。研究選擇了十三個問題,並由專業醫師和非醫療人士評估。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,準確性也達到95%。總結來說,ChatGPT可作為患者教育SCS的輔助工具,尤其在一般性問題上,但對於技術性問題則可能較為困難。 PubMed DOI

這項研究評估了ChatGPT對脊柱側彎問題的回答在可靠性、有用性、品質和可讀性方面的表現。選擇了十六個常見問題,由兩位專家評分。結果顯示,可靠性平均得分4.68,有用性得分4.84,整體品質得分4.28,評價普遍正面。雖然一般資訊的回答表現不錯,但針對治療和個人化問題的回答仍需加強。可讀性方面,回答需具備高中三年級到大學程度的閱讀能力。總體來說,ChatGPT提供的脊柱側彎資訊可靠,但在特定問題上仍需謹慎使用。 PubMed DOI

這項研究評估了手部手術相關的線上醫療資訊,並比較了Google、ChatGPT-3.5和ChatGPT-4.0的回應。研究針對腕隧道症候群、網球肘和富血小板血漿用於拇指關節炎三個問題進行分析。 主要發現包括: 1. **可讀性**:Google的回應較易讀,平均在八年級水平,而ChatGPT則在大學二年級水平。低共識主題的可讀性普遍較差。 2. **可靠性與準確性**:ChatGPT-4的可靠性與3.5相似,但低共識主題的可讀性較低,準確性差異不大。 3. **覆蓋範圍**:ChatGPT-4和Google在疾病原因和程序細節的覆蓋上有所不同,但在解剖學和病理生理學上相似。 總結來說,雖然ChatGPT能提供可靠的醫療資訊,但可讀性較差,醫療提供者需注意其局限性。 PubMed DOI

這項研究探討人工智慧(AI)在簡化骨科創傷病患教育材料的有效性。分析了35篇來自第1級創傷中心的文章,並使用Python程式評估其可讀性。經過四次GPT AI模型改寫後,所有模型成功降低了文章的閱讀年級水平,特別是GPT-4o-Mini和GPT-4o表現最佳,而GPT-3.5-Turbo效果較差。成本分析顯示,GPT-4o每篇文章費用為0.61美元,雖然較貴,但準確性高。研究結論認為,AI能有效簡化病患教育材料,且保持準確性。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究比較GPT-3.5和GPT-4o在744題復健醫學問題上的表現,GPT-3.5正確率約56%,GPT-4o則達84%,明顯較佳。雖然大型語言模型在臨床、教學和病患資訊上有潛力,但目前仍有限制,醫師使用時要特別小心。 PubMed DOI