原始文章

這項研究評估了AtlasGPT生成的回應可讀性,AtlasGPT專為神經外科文獻訓練,並針對外科醫生、住院醫師、醫學生和病人進行調整。研究者提出十個問題,並用Readability Studio分析回應的可讀性。 結果顯示,病人的回應與其他使用者類型有顯著差異(p < 0.005)。醫學生的回應通常較易讀,但與外科醫生和住院醫師的差異不顯著。病人回應的年級水平介於8.8到11.51,只有一個回應達到5到6年級。 整體來看,AtlasGPT雖然調整可讀性,但針對病人的內容仍超過美國機構建議的可讀性水平,顯示改善醫療資訊以便病人理解的必要性。 PubMed DOI


站上相關主題文章列表

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI

這項研究評估了ChatGPT 3.5和4在創建神經外科文獻摘要的有效性。研究隨機選取150篇2023年發表的摘要,並比較其可讀性與準確性。結果顯示,兩個模型生成的摘要在可讀性上顯著優於原始摘要,GPT3.5的閱讀年級為7.80,GPT4為7.70。科學準確性方面,68.4%的GPT3.5摘要和84.2%的GPT4摘要被醫師評為中等準確性。研究指出,GPT4在改善病人教育上具有潛力,能讓神經外科文獻更易理解。 PubMed DOI

微創脊椎手術(MISS)近年來成為傳統手術的替代選擇,因其切口小、恢復快及併發症少等優勢。隨著患者在網上尋求MISS資訊,資訊的清晰度與準確性變得重要。研究發現,許多相關網頁內容的可讀性超過建議水平,讓患者難以理解。本研究評估ChatGPT對MISS常見問題的回答在臨床適宜性和可讀性方面的表現。結果顯示,雖然術前和術後問題的回答通常適宜,但手術中問題的回答有一半被認為不可靠。未來的AI工具應注重清晰溝通,並需醫療專業人員的監督。 PubMed DOI

這項研究評估了ChatGPT-4在簡化醫學文獻的效果,特別是神經學和神經外科的摘要及病人教育材料,將其簡化到五年級的閱讀水平。研究轉換了100篇摘要和340份病人教育材料,結果顯示可讀性顯著提升,摘要從12年級降至5年級,病人教育材料從13年級降至5年級。內容保留方面,摘要和病人教育材料的相似度都很高,但對於較長文本的相關性較弱。總體來說,GPT-4.0有效改善醫學文本的可讀性,但仍需專家驗證以確保準確性。 PubMed DOI

這項研究評估了一本教科書與GPT-4在非創傷性脊髓損傷(NTSCI)方面的可讀性與可靠性,特別針對ABPMR認證。主要發現包括: 1. 教科書可讀性分數為14.5,GPT-4為17.3,顯示GPT-4的解釋較複雜(p < 0.001)。 2. GPT-4的解釋中有86%屬於「非常困難」,教科書則為58%(p = 0.006)。 3. GPT-4能簡化九個複雜解釋,保持字數不變,顯示其適應性。 4. GPT-4的準確率為96%,顯著優於GPT-3.5的84%(p = 0.046)。 總體而言,研究顯示GPT-4在醫學教育中具潛力,能提供準確且易懂的解釋。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究比較了GPT-4和眼科醫生對眼科手術問題的回應可讀性。研究隨機選取200個問題,發現GPT-4使用的複雜詞彙比例較高(24.42%),而醫生則為17.76%。兩者的平均句子字數相似,但GPT-4的回應被評為更高的年級水平,顯示其內容較複雜。兩者都需至少12年級的教育才能理解,超過了國立衛生研究院建議的六到七年級水平。這強調了健康資訊可及性的重要性,尤其是AI工具在患者教育中的應用。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI