原始文章

這項研究評估了AtlasGPT生成的回應可讀性,AtlasGPT專為神經外科文獻訓練,並針對外科醫生、住院醫師、醫學生和病人進行調整。研究者提出十個問題,並用Readability Studio分析回應的可讀性。 結果顯示,病人的回應與其他使用者類型有顯著差異(p < 0.005)。醫學生的回應通常較易讀,但與外科醫生和住院醫師的差異不顯著。病人回應的年級水平介於8.8到11.51,只有一個回應達到5到6年級。 整體來看,AtlasGPT雖然調整可讀性,但針對病人的內容仍超過美國機構建議的可讀性水平,顯示改善醫療資訊以便病人理解的必要性。 PubMed DOI


站上相關主題文章列表

研究比較了美國醫學機構提供的肥胖手術患者教育資料(PEMs)和大型語言模型(LLMs)如GPT-3.5、GPT-4和Bard所生成的回應的易讀性。研究發現,兩者的初始回應都很難閱讀,但在提示簡化後,LLMs的易讀性顯著提高,其中GPT-4產生了最易讀的回應。該研究建議LLMs可以提高PEMs的易讀性,尤其是GPT-4,並呼籲進一步研究如何使用LLMs為各種識字水平的患者提供個性化的PEMs。 PubMed DOI

這項研究評估使用ChatGPT 3.5來分析和簡化手術患者教育資料,以符合建議的閱讀水平。ChatGPT 3.5提供了與傳統計算工具類似的易讀性分數,並有效地將資料簡化到更容易理解的水平。這個工具有助於提升患者在臨床環境中對健康資訊的理解和參與。 PubMed DOI

這項研究評估了ChatGPT對肺癌問題的回答可讀性,涵蓋定義、成因、風險因素、診斷、治療和預後等。研究者向ChatGPT提出80個問題,並用不同的可讀性標準來評估其回答。結果顯示,這些回應的可讀性屬於中等,通常在「大學」水平或以上,對患者來說不易理解。研究建議未來的ChatGPT版本應更針對不同教育背景和年齡層,以提升醫療資訊的可及性。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究評估了人工智慧生成語言模型(GLMs),特別是ChatGPT-3.5和GPT-4,如何根據病人教育水平調整醫療資訊,這對解決低健康素養問題很重要。研究使用第二型糖尿病和高血壓的案例,分析生成內容的可讀性。結果顯示,GPT-3.5的可讀性僅符合學士學位水平,而GPT-4則能適應多數群體的需求。這兩個模型在可讀性上有顯著差異,顯示GLMs能調整醫療文本的複雜性,但仍需進一步研究以提升其個性化調整能力。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究探討耳鼻喉科病人教育材料的可讀性,利用ChatGPT將內容翻譯成五年級水平。研究人員從美國相關學會網站獲取資料,並用Flesch閱讀容易度和Flesch-Kincaid年級水平來評估可讀性。結果顯示,經過ChatGPT翻譯後,材料的可讀性顯著改善(p < 0.001)。雖然Microsoft Word也有改善,但變化不明顯。總體來看,原始材料的寫作水平過高,使用AI工具如ChatGPT能有效簡化內容,讓病人更容易理解。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI

這項研究評估了ChatGPT 3.5和4在創建神經外科文獻摘要的有效性。研究隨機選取150篇2023年發表的摘要,並比較其可讀性與準確性。結果顯示,兩個模型生成的摘要在可讀性上顯著優於原始摘要,GPT3.5的閱讀年級為7.80,GPT4為7.70。科學準確性方面,68.4%的GPT3.5摘要和84.2%的GPT4摘要被醫師評為中等準確性。研究指出,GPT4在改善病人教育上具有潛力,能讓神經外科文獻更易理解。 PubMed DOI

微創脊椎手術(MISS)近年來成為傳統手術的替代選擇,因其切口小、恢復快及併發症少等優勢。隨著患者在網上尋求MISS資訊,資訊的清晰度與準確性變得重要。研究發現,許多相關網頁內容的可讀性超過建議水平,讓患者難以理解。本研究評估ChatGPT對MISS常見問題的回答在臨床適宜性和可讀性方面的表現。結果顯示,雖然術前和術後問題的回答通常適宜,但手術中問題的回答有一半被認為不可靠。未來的AI工具應注重清晰溝通,並需醫療專業人員的監督。 PubMed DOI