原始文章

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI


站上相關主題文章列表

生成式 AI 工具如 ChatGPT 在醫療查詢中越來越受歡迎,特別是在解答髕腱病相關問題上。一項研究評估了 ChatGPT-4 的表現,收集了 48 個問題並由專家評估其回應。結果顯示,只有 33% 的回應準確,但 75% 是全面的。治療相關問題的準確率僅 17%。回應的可讀性達到大學水平,且可理解性良好(83%),但可行性較低(60%)。總體而言,ChatGPT-4 提供了豐富資訊,但準確性不足,且對於低學歷者不易理解。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究探討了人工智慧技術,特別是ChatGPT和Gemini,在提供病人醫療資訊(PFI)方面的效果,專注於手部手術。研究發現,雖然AI生成的內容與傳統資料在準確性上無顯著差異,但手外科醫生認為傳統資料在全面性和清晰度上更佳。非醫療參與者則偏好AI生成的文本。整體來說,兩者的資訊都適合病人理解,但AI內容仍需改進以符合醫療標準。持續研究對於提升病人教育和術後護理溝通非常重要。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI

在英國,43%的成年人在理解健康資訊時有困難。為了解決這個問題,健康教育機構建議患者資訊小冊子應以11歲兒童的可讀性水平撰寫。研究評估了ChatGPT-4及三個皮膚科插件生成的小冊子,並與英國皮膚科醫學會的現有小冊子比較。結果顯示,雖然生成的小冊子未達建議可讀性,但某些平均分數優於BAD的小冊子,特別是“與皮膚科醫生聊天”插件表現佳。然而,ChatGPT-4生成的小冊子缺少一些BAD小冊子中的內容。因此,醫療專業人員需驗證內容的可靠性與質量。 PubMed DOI

這項研究評估了手部手術相關的線上醫療資訊,並比較了Google、ChatGPT-3.5和ChatGPT-4.0的回應。研究針對腕隧道症候群、網球肘和富血小板血漿用於拇指關節炎三個問題進行分析。 主要發現包括: 1. **可讀性**:Google的回應較易讀,平均在八年級水平,而ChatGPT則在大學二年級水平。低共識主題的可讀性普遍較差。 2. **可靠性與準確性**:ChatGPT-4的可靠性與3.5相似,但低共識主題的可讀性較低,準確性差異不大。 3. **覆蓋範圍**:ChatGPT-4和Google在疾病原因和程序細節的覆蓋上有所不同,但在解剖學和病理生理學上相似。 總結來說,雖然ChatGPT能提供可靠的醫療資訊,但可讀性較差,醫療提供者需注意其局限性。 PubMed DOI

這項研究發現,ChatGPT-4回答板機指手術相關問題時,大多內容正確且表達清楚,但偶爾會有事實錯誤,尤其在治療部分。AI的回答閱讀難度偏高,約等同高中三年級,超過建議給病人的國中程度。建議AI可作為衛教輔助,但醫護人員仍需協助病人確認資訊正確性。 PubMed DOI

許多脊椎相關的病患衛教資料,閱讀難度太高,超過多數人能理解的程度。研究發現,這些資料平均要有美國高中二年級程度才能看懂,遠高於建議的國中一年級水準。用 ChatGPT-4o 重寫後,內容變得更簡單易懂,資訊也沒跑掉。AI 工具確實能幫助醫療資訊更親民,但未來還要加上圖像和更友善的呈現方式,才能照顧到所有病患。 PubMed DOI