原始文章

在英國,43%的成年人在理解健康資訊時有困難。為了解決這個問題,健康教育機構建議患者資訊小冊子應以11歲兒童的可讀性水平撰寫。研究評估了ChatGPT-4及三個皮膚科插件生成的小冊子,並與英國皮膚科醫學會的現有小冊子比較。結果顯示,雖然生成的小冊子未達建議可讀性,但某些平均分數優於BAD的小冊子,特別是“與皮膚科醫生聊天”插件表現佳。然而,ChatGPT-4生成的小冊子缺少一些BAD小冊子中的內容。因此,醫療專業人員需驗證內容的可靠性與質量。 PubMed DOI


站上相關主題文章列表

PILs是病人看醫生外的小冊子。英國皮膚科醫師協會提供各種PILs,都經過嚴格審查。研究發現,人工智慧生成的PILs內容與BAD PILs相似,但缺乏患者關心的資訊。人工智慧生成的PILs可讀性高,但品質可能不如BAD PILs。建議使用人工智慧生成的特定藥物PILs時要謹慎。 PubMed DOI

研究發現大型語言模型(LLMs)如ChatGPT-3.5、GPT-4、DermGPT和DocsGPT在製作皮膚科患者教育資料(PEMs)方面表現良好,能提供易讀易懂的資訊,且大多數情況下準確無誤。其中,GPT-4在常見和罕見疾病的解釋上表現優秀,而ChatGPT-3.5和DocsGPT在罕見疾病的說明方面更為出色。總結來說,LLMs對於提升健康知識和提供易懂的PEMs具有潛力。 PubMed DOI

這項研究探討如何利用人工智慧驅動的大型語言模型(LLM)來提升病人手冊的可讀性。研究分析了五份來自美國鼻科學會和面部整形外科醫學會的手冊,發現原始版本難以閱讀,對應高中和大學水平。經過ChatGPT-4的修訂後,手冊的可讀性提升至接近七年級。結果顯示,LLM修訂的手冊在可讀性指標上明顯優於原版,且可理解性評分也較高。這表明AI工具能有效改善病人教育材料,使其更易於理解,對醫療教育資源的優化有正面影響。 PubMed DOI

這項研究比較了由人工智慧生成的健康資訊(如ChatGPT)與ENT UK專業製作的病人資訊手冊的質量和可讀性。結果顯示,ENT UK手冊的質量中等,EQIP分數中位數為23,且手冊之間的評分差異顯著。雖然ChatGPT的內容質量與手冊相當,但可讀性較差,需更高的閱讀年齡。這強調了在病人教育材料中確保質量和可讀性的重要性,尤其在網路健康資源日益普及的背景下。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在診斷和管理異位性皮膚炎及自體免疫性水泡性皮膚病的效果。五位皮膚科醫生針對50份問卷的回應進行評估,發現兩個版本對異位性皮膚炎的理解不錯,且4.0表現優於3.5,但都無法超越資深醫療專業人員的診斷能力。在診斷特定的自體免疫性水泡性皮膚病案例時,兩個版本的表現都不夠精確。總體來看,雖然ChatGPT在異位性皮膚炎的基本詢問上表現良好,但在AIBD的診斷上仍有待加強。 PubMed DOI

人工智慧(AI)在皮膚科的應用迅速發展,特別是 ChatGPT 成為患者教育和臨床決策的重要工具。本研究評估了 ChatGPT 在皮膚科的有效性與挑戰,發現其在回答常見皮膚病問題上表現良好,但在複雜病例診斷上仍有困難,且存在信息準確性和倫理問題。未來應謹慎整合 ChatGPT,解決數據隱私和算法偏見等挑戰,並強調其應輔助而非取代醫生的角色。 PubMed DOI

這項研究評估了ChatGPT-4在簡化醫學文獻的效果,特別是神經學和神經外科的摘要及病人教育材料,將其簡化到五年級的閱讀水平。研究轉換了100篇摘要和340份病人教育材料,結果顯示可讀性顯著提升,摘要從12年級降至5年級,病人教育材料從13年級降至5年級。內容保留方面,摘要和病人教育材料的相似度都很高,但對於較長文本的相關性較弱。總體來說,GPT-4.0有效改善醫學文本的可讀性,但仍需專家驗證以確保準確性。 PubMed DOI

這項研究評估了ChatGPT-4在整形外科和重建外科的資訊質量與可讀性。研究人員針對過去15年最常搜尋的十個主題,設計了九個問題並輸入ChatGPT-4。結果顯示,使用DISCERN工具評估後,回應的資訊質量得分偏低,平均為34;可讀性指數也不佳,Flesch-Kincaid平均為33.6,Coleman-Liau為15.6。儘管如此,十二位整形外科醫師對回應的清晰度和準確性給予正面評價,平均得分分別為7.38和7.4。研究建議,AI語言模型如ChatGPT可作為健康資訊的起點,未來有潛力改善內容質量。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI