原始文章

這項研究發現,ChatGPT-4o產生的兒童眼科手術衛教資料,無論是英文還是西班牙文,品質都還不如美國兒童眼科與斜視協會(AAPOS)提供的內容,特別是在正確性、時效性和語氣上。不過,兩者的可讀性差不多,未來隨著AI進步,品質有望提升。 PubMed DOI


站上相關主題文章列表

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

這項研究指出,西班牙語患者在獲取骨科教育材料時面臨語言障礙和可讀性問題。評估77份美國骨科醫師學會的西班牙語材料後發現,沒有一份符合建議的六年級閱讀水平。使用ChatGPT-4簡化後,53%的材料達到建議水平,但準確性和實用性仍需改善。研究強調持續創建清晰且文化適宜的教育資源的重要性,並建議進一步研究以納入患者反饋。 PubMed DOI

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究發現,AI工具(如ChatGPT、Copilot、Gemini)能把顏面整形衛教資料改寫得更容易閱讀,雖然還沒達到理想的國中一年級水準。有醫師把關下,用AI簡化衛教內容,有助於讓病患更容易取得和理解健康資訊。 PubMed DOI

這項研究比較 ChatGPT-3.5、ChatGPT-4o 和 Google Gemini 在製作兒童近視衛教資料的表現。結果發現,三款 AI 都能產出正確、易懂的內容,但只有 ChatGPT-3.5 和 4o 能穩定達到國小六年級的閱讀程度。ChatGPT-4o 在內容品質和易讀性上表現最好,但三者都缺乏高度可執行的建議。整體來說,ChatGPT-4o 最有潛力用來優化兒童近視衛教資料。 PubMed DOI

許多脊椎相關的病患衛教資料,閱讀難度太高,超過多數人能理解的程度。研究發現,這些資料平均要有美國高中二年級程度才能看懂,遠高於建議的國中一年級水準。用 ChatGPT-4o 重寫後,內容變得更簡單易懂,資訊也沒跑掉。AI 工具確實能幫助醫療資訊更親民,但未來還要加上圖像和更友善的呈現方式,才能照顧到所有病患。 PubMed DOI

這項研究比較ChatGPT-3.5、ChatGPT-4和Gemini在產生早產兒視網膜病變衛教資料的表現。三款AI都能產出正確、易懂的內容,但ChatGPT-4在將資料改寫成國中一年級程度時,品質和可靠性最好。整體來說,ChatGPT-4特別適合協助家長取得高品質、易讀的衛教資訊。 PubMed DOI