原始文章

**重點摘要:** CoDESIGN 計畫正在研究如何利用 ChatGPT 來簡化失智症相關資訊,讓閱讀能力較低的人也能理解,同時確保內容的正確性與完整性。雖然 ChatGPT 能提供協助,但在分享這些文件之前,還是需要人工審查來確保品質。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

簡明語言摘要(PLS)對於讓大眾理解醫療資訊,特別是在腫瘤學中,至關重要。研究探討大型語言模型如ChatGPT是否能簡化PLS而不改變原始結論。研究使用275篇科學摘要,發現ChatGPT生成的PLS在可讀性和情感參與度上表現更佳,字數也較少。第一個提示生成的PLS最短且易讀,SMOG分數顯著低於原始PLS。總體而言,ChatGPT能有效簡化PLS,使醫療資訊更易於大眾理解,但仍需進一步研究以確保資訊的準確性。 PubMed DOI

在英國,43%的成年人在理解健康資訊時有困難。為了解決這個問題,健康教育機構建議患者資訊小冊子應以11歲兒童的可讀性水平撰寫。研究評估了ChatGPT-4及三個皮膚科插件生成的小冊子,並與英國皮膚科醫學會的現有小冊子比較。結果顯示,雖然生成的小冊子未達建議可讀性,但某些平均分數優於BAD的小冊子,特別是“與皮膚科醫生聊天”插件表現佳。然而,ChatGPT-4生成的小冊子缺少一些BAD小冊子中的內容。因此,醫療專業人員需驗證內容的可靠性與質量。 PubMed DOI

這項研究探討了使用ChatGPT將臨床信件翻譯成更易懂的語言,目的是增強患者對治療和診斷的理解。研究採用單盲定量方法,分析語言複雜度的指標。翻譯了二十三封來自不同專科的診所信件,結果顯示翻譯保留了臨床信息,並顯著提升了患者的理解與滿意度。患者尋求醫療協助解釋信件的需求也明顯減少。結論認為,ChatGPT是一個有效的工具,能創造更友好的臨床信件版本,讓患者更容易理解。 PubMed DOI

這項研究比較 ChatGPT-3.5、ChatGPT-4o 和 Google Gemini 在製作兒童近視衛教資料的表現。結果發現,三款 AI 都能產出正確、易懂的內容,但只有 ChatGPT-3.5 和 4o 能穩定達到國小六年級的閱讀程度。ChatGPT-4o 在內容品質和易讀性上表現最好,但三者都缺乏高度可執行的建議。整體來說,ChatGPT-4o 最有潛力用來優化兒童近視衛教資料。 PubMed DOI

ChatGPT 對常見老年症候群的問題多能正確回答,但在肌少症診斷和憂鬱症治療方面正確率較低,且用詞偏艱深,病人可能難以理解。雖然能協助解答疑問,重要決策還是建議諮詢專業醫師。 PubMed DOI

這項研究發現,ChatGPT、Gemini 和 Claude 都能把線上病患衛教資料簡化到更容易閱讀的程度,字數也變少,且正確性和易懂性大致良好。不過,Gemini 和 Claude 偶爾會有錯誤,所以還是需要人工審查。未來建議針對更進階或專門醫療的模型再做研究。 PubMed DOI

這項研究發現,用ChatGPT簡化放射科報告後,病人更容易看懂內容,覺得資訊更清楚、語氣更親切,也更有信心和醫師討論、參與決策。AI工具有助於讓醫療資訊更貼近病人需求,但還需要更多研究來確保所有人都適用且正確。 PubMed DOI