原始文章

這項研究發現,GPT-4能快速產出內容正確、易讀又符合最新指引的泌尿系統癌症衛教資料,還能準確翻譯成多國語言。AI生成的資料比原本更清楚,閱讀門檻也較低,只要有專業人員審核,就能幫助病人更容易取得和理解相關資訊。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究探討了ChatGPT-4是否能創建清晰易懂的前列腺癌研究摘要,分析了2022年7月至2024年6月間80篇發表於*Current Oncology*的文章。研究發現,使用詳細提示的摘要在可讀性和質量上都顯著優於簡單提示。雖然兩者都能提供全面的摘要,但詳細提示讓資訊更易於被廣泛受眾理解。研究強調了自訂提示在醫療溝通中的重要性,並建議未來應考慮病患反饋,將此方法擴展至其他醫療領域。 PubMed DOI

這項研究探討大型語言模型(LLMs)在為癌症倖存者及其照顧者創建教育材料的有效性,特別針對弱勢群體。研究比較了三個模型(GPT-3.5 Turbo、GPT-4 和 GPT-4 Turbo)在生成30個癌症護理主題內容的表現,目標是達到六年級的閱讀水平,並提供西班牙語和中文翻譯。 主要發現包括:LLMs整體表現良好,74.2%符合字數限制,平均質量分數為8.933,但只有41.1%達到所需閱讀水平。翻譯準確率高,西班牙語96.7%、中文81.1%。常見問題有範圍模糊和缺乏可行建議。GPT-4表現優於GPT-3.5 Turbo,使用項目符號提示效果更佳。 結論指出,LLMs在創建可及的教育資源方面潛力大,但需改善閱讀水平和內容全面性,未來研究應結合專家意見和更好數據以提升有效性。 PubMed DOI

這項研究探討了ChatGPT-4在撰寫前列腺癌科學文章的通俗摘要方面的效果。研究分析了2023年1月至2024年6月發表的327篇文章,發現使用進階提示生成的摘要可讀性顯著提高。雖然基本提示和進階提示的內容質量相似,但兩者的評價都高於原始摘要。此外,ChatGPT-4在遵循期刊指導方針上表現更佳,無錯誤率分別達76.1%和92%,而原始摘要僅29.4%。總體來看,ChatGPT-4是一個有助於提升病人理解的有價值工具。 PubMed DOI

這項研究探討人工智慧(AI)在簡化骨科創傷病患教育材料的有效性。分析了35篇來自第1級創傷中心的文章,並使用Python程式評估其可讀性。經過四次GPT AI模型改寫後,所有模型成功降低了文章的閱讀年級水平,特別是GPT-4o-Mini和GPT-4o表現最佳,而GPT-3.5-Turbo效果較差。成本分析顯示,GPT-4o每篇文章費用為0.61美元,雖然較貴,但準確性高。研究結論認為,AI能有效簡化病患教育材料,且保持準確性。 PubMed DOI

這項研究發現,用GPT-4簡化腫瘤放射科報告後,病患閱讀更快、理解更好,醫病溝通也更順暢。結果顯示,像GPT-4這類AI工具,能有效提升醫療溝通品質,幫助病患更容易取得和理解複雜醫療資訊,進而改善治療成效。 PubMed DOI

這項研究用 GPT-4(透過 Azure)把荷蘭文放射科報告簡化成 B1 等級,讓病患更容易看懂。經過專家審查後,AI 生成的報告不只正確,病患也更滿意、理解度更高,大多數人都比較喜歡簡化版。這方法能幫助醫病溝通,減輕醫師負擔,也讓病患能做出更有根據的決定。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI

這項研究發現,GPT-4在為膝關節骨關節炎患者產出個人化自我管理衛教內容時,表現比臨床醫師更快、更完整且更精確。不過,GPT-4有時用詞太複雜,對健康識讀較低的患者不夠友善。未來建議AI與醫師共同審查,才能兼顧品質與安全。 PubMed DOI

**重點摘要:** 這項研究評估了GPT-4將婦科手術報告簡化給病人閱讀的能力。簡化後的報告有助於病人更了解手術過程和結果,但臨床專家也指出醫療正確性方面有疑慮。雖然AI生成的摘要在病人衛教上很有潛力,但在常規用於術後照護和出院系統前,仍需謹慎監督以確保醫療內容的精確性。 PubMed DOI