原始文章

這項研究評估了一本教科書與GPT-4在非創傷性脊髓損傷(NTSCI)方面的可讀性與可靠性,特別針對ABPMR認證。主要發現包括: 1. 教科書可讀性分數為14.5,GPT-4為17.3,顯示GPT-4的解釋較複雜(p < 0.001)。 2. GPT-4的解釋中有86%屬於「非常困難」,教科書則為58%(p = 0.006)。 3. GPT-4能簡化九個複雜解釋,保持字數不變,顯示其適應性。 4. GPT-4的準確率為96%,顯著優於GPT-3.5的84%(p = 0.046)。 總體而言,研究顯示GPT-4在醫學教育中具潛力,能提供準確且易懂的解釋。 PubMed DOI


站上相關主題文章列表

研究評估了ChatGPT回答脊髓損傷(SCI)問題的品質、易讀性和理解度。結果顯示回答品質有待提升,使用的語言可能過於複雜難懂。研究強調ChatGPT在提供SCI相關資訊時需要改進,讓使用者更容易理解且可靠。 PubMed DOI

這項研究評估了GPT-4在初級和急診護理中對脊椎問題的分診和診斷效果。研究設計了十五個臨床情境,要求GPT-4提供診斷、影像學建議及轉診需求。結果顯示,GPT-4能準確識別診斷並給出符合標準的臨床建議。雖然它有過度轉診的傾向,但這並不顯著。整體表現與主治醫師和住院醫師相當,顯示其在脊椎問題初步分診中的潛力。不過,GPT-4並非專為醫療用途設計,需注意其限制。隨著進一步訓練,這類AI可能在分診中變得更重要。 PubMed DOI

這項研究評估了ChatGPT 3.5和4在創建神經外科文獻摘要的有效性。研究隨機選取150篇2023年發表的摘要,並比較其可讀性與準確性。結果顯示,兩個模型生成的摘要在可讀性上顯著優於原始摘要,GPT3.5的閱讀年級為7.80,GPT4為7.70。科學準確性方面,68.4%的GPT3.5摘要和84.2%的GPT4摘要被醫師評為中等準確性。研究指出,GPT4在改善病人教育上具有潛力,能讓神經外科文獻更易理解。 PubMed DOI

這項研究評估了ChatGPT-4視覺版(GPT-4V)在解讀醫學影像及處理骨科創傷案例的表現。研究分析了十個來自OrthoBullets的熱門案例,並由四位專科醫生對AI的回應進行評分。結果顯示,GPT-4V在影像回應的平均得分為3.46,準確性和可信度較低,分別為3.28和3.15;而在管理問題上得分較高(3.76),治療問題表現最佳(4.04)。結論指出,GPT-4V作為教育工具有潛力,但影像解讀能力仍不及經驗豐富的醫生。 PubMed DOI

這項研究評估了ChatGPT-4在簡化醫學文獻的效果,特別是神經學和神經外科的摘要及病人教育材料,將其簡化到五年級的閱讀水平。研究轉換了100篇摘要和340份病人教育材料,結果顯示可讀性顯著提升,摘要從12年級降至5年級,病人教育材料從13年級降至5年級。內容保留方面,摘要和病人教育材料的相似度都很高,但對於較長文本的相關性較弱。總體來說,GPT-4.0有效改善醫學文本的可讀性,但仍需專家驗證以確保準確性。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究評估了GPT-4在回答疼痛管理相關的臨床藥理學問題上的表現。醫療專業人員提出了有關藥物相互作用、劑量和禁忌症的問題,GPT-4的回應在清晰度、詳細程度和醫學準確性上獲得了高評價。結果顯示,99%的參與者認為回應易懂,84%認為信息詳細,93%表示滿意,96%認為醫學準確。不過,只有63%認為信息完整,顯示在藥物動力學和相互作用方面仍有不足。研究建議開發專門的AI工具,結合即時藥理數據庫,以提升臨床決策的準確性。 PubMed DOI

脊髓刺激(SCS)是一種有效的慢性疼痛治療方法,但患者常有疑問。本研究探討ChatGPT對SCS常見問題的回答在可靠性、準確性和可理解性方面的表現。研究選擇了十三個問題,並由專業醫師和非醫療人士評估。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,準確性也達到95%。總結來說,ChatGPT可作為患者教育SCS的輔助工具,尤其在一般性問題上,但對於技術性問題則可能較為困難。 PubMed DOI

這項研究評估了ChatGPT對脊柱側彎問題的回答在可靠性、有用性、品質和可讀性方面的表現。選擇了十六個常見問題,由兩位專家評分。結果顯示,可靠性平均得分4.68,有用性得分4.84,整體品質得分4.28,評價普遍正面。雖然一般資訊的回答表現不錯,但針對治療和個人化問題的回答仍需加強。可讀性方面,回答需具備高中三年級到大學程度的閱讀能力。總體來說,ChatGPT提供的脊柱側彎資訊可靠,但在特定問題上仍需謹慎使用。 PubMed DOI