原始文章

這項研究探討患者及陪伴者對傳統與AI生成的結腸癌患者教育材料(PEMs)的偏好。共35名參與者,平均年齡46歲,大多數為女性且擁有大學學位。結果顯示,51%偏好傳統PEMs,49%偏好AI生成的PEMs,兩者之間並無顯著差異。這顯示對這兩種材料的偏好相近,建議未來可進一步研究AI在生成有效PEMs中的潛力,因為AI可能結合傳統材料的優勢,並提高資源使用效率。 PubMed DOI


站上相關主題文章列表

這項研究探討使用人工智慧來編輯來自骨科機構的患者教育資料(PEMs),以符合CDC和NIH建議的閱讀水平。人工智慧成功降低了有關側側韌帶炎的PEMs的閱讀年級和字數,顯示了改善健康識字能力的潛力。這表明人工智慧可能是創建更易取得和易理解的醫療資訊的寶貴工具。 PubMed DOI

最近有關人工智慧(AI)聊天機器人的討論,特別是ChatGPT,在病人教育方面顯示出潛力,尤其是慢性疼痛管理。一項研究比較了ChatGPT生成的病人資訊與傳統病人資訊手冊(PILs),評估可讀性、情感語調、準確性等。結果顯示,傳統PILs的可讀性較高,但AI生成的文本情感較正面。準確性和易懂性方面兩者相當。研究強調,雖然AI能有效傳遞資訊,但保持可讀性和以病人為中心的焦點仍然重要,結合AI工具與證據實踐對病人教育至關重要。 PubMed DOI

這項研究比較了大型語言模型(LLMs)與醫生創建的幽門螺旋桿菌病人教育材料(PEMs)的質量。研究發現,雖然所有英文PEMs在準確性和可理解性上達到標準,但完整性不足。醫生創建的PEMs準確性最高,而LLM生成的中文PEMs在準確性和完整性上表現較差。病人對中文PEMs的評價普遍較好,但沒有任何PEMs達到六年級閱讀水平。總體來看,LLMs在病人教育上有潛力,但仍需改進以適應不同語言環境。 PubMed DOI

人工智慧(AI)在醫療領域的應用,特別是針對腎癌的病人教育材料(PEMs),帶來了顯著變化。本研究比較了ChatGPT 4.0、Gemini AI和Perplexity AI生成的資訊準確性與可讀性,並與美國泌尿學會(AUA)和歐洲泌尿學會(EAU)的PEMs進行對照。結果顯示,AUA的PEM可讀性最佳,AI生成的內容雖然準確,但在治療資訊上有些小遺漏。雖然AI能簡化內容,但在病人教育中使用時仍需謹慎,以免造成誤解。 PubMed DOI

本研究透過結構化方法,開發並驗證針對造口病患的人工智慧輔助教育材料。研究包含五個步驟:識別資訊需求、創建內容、轉換為病患友好材料、專家審查及可讀性評估。使用 ChatGPT 4.0 確定需求並生成內容,並用 PEMAT 評估材料有效性。結果顯示,材料的可理解性得分為 81.91%,可行性得分為 85.33%。雖然材料準確且易懂,但對某些病患來說,閱讀上仍有挑戰。研究顯示人工智慧在病患教育中的潛力,並強調需進一步了解其對病患結果的影響。 PubMed DOI

這項研究探討了患者對人工智慧(AI),特別是大型語言模型的信心,於臨床泌尿科環境中進行。300名患者與基於GPT-4的聊天機器人互動後,填寫調查,評估AI與泌尿科醫生在歷史採集、診斷、治療建議等方面的表現。結果顯示,患者偏好AI在諮詢時間分配,但在其他能力上更信任醫生,尤其是治療建議和減輕焦慮。年齡對AI信心無影響,顯示技術對各年齡層皆易於接觸。研究強調AI是人類專業知識的補充,而非替代品。 PubMed DOI

這項研究針對65歲以上的老年人,探討他們對人工智慧(AI)提供的個人化用藥建議的接受度。調查結果顯示,參與者最容易接受初級醫療提供者的建議,對於阿斯匹靈和雷尼替丁的停止率分別為60.1%和68.9%。相比之下,藥劑師和AI的建議影響力較小。某些特徵如種族、健康狀況和對科技的信心,會影響老年人遵循AI建議的可能性。整體而言,老年人對AI建議仍持保留態度,但特定群體可能較為開放。 PubMed DOI

提升病人對健康的理解對改善健康結果非常重要。利用人工智慧(AI)簡化醫療資訊,可以顯著提高健康素養。本次系統性回顧分析了2019年至2023年間的20項研究,探討AI在病人教育材料(PEMs)中的應用。 研究發現AI能有效簡化PEMs,並在可讀性上有顯著改善,使用者滿意度超過85%。不過,AI在準確性和可靠性上表現不一,特別是面對複雜醫療主題時,仍需進一步提升。總之,AI有潛力改善病人健康素養,但仍需加強其準確性和可靠性。 PubMed DOI

這項研究比較了ChatGPT和Google Gemini生成的病患教育指南,主題包括MRI檢查、乳房攝影篩檢及MR環境中的物品安全性。研究發現,ChatGPT的平均字數和句子數都高於Google Gemini,但可讀性分數顯示ChatGPT的內容更易讀。相似性分數方面,ChatGPT的分數較低,顯示其內容與現有文本的相似度較低。整體來看,雖然兩者在可靠性上相似,但在可讀性和相似性上有所不同。 PubMed DOI

這項研究評估AI聊天機器人在回應良性前列腺增生(BPH)問題時的有效性,與泌尿科醫生相比。研究發現,非醫療志願者認為聊天機器人的同理心語氣較高(3.0 vs 2.1),且更偏好其回應(2.6 vs 3.9)。在準確性上,兩者相當(4.5 vs 4.6),但聊天機器人的回應在完整性上得分較高(2.4 vs 1.6)。總結來說,AI聊天機器人在準確性、完整性及同理心上表現優於泌尿科醫生。 PubMed DOI