原始文章

生成式人工智慧(AI)在公共衛生溝通中的應用越來越普遍,能有效提升全球資訊的傳遞。研究指出,這些AI模型能改善患者的健康素養,特別是對於像急性肺栓塞這類複雜疾病的理解至關重要。最近的研究評估了ChatGPT、Google Gemini和Microsoft CoPilot等AI模型生成的回應,發現它們的可讀性尚未達到美國的推薦標準。隨著這些模型的持續進步,未來對其可讀性的研究將有助於了解如何透過深度學習提升溝通效果。 PubMed DOI


站上相關主題文章列表

生成式人工智慧對話平台和大型語言模型可幫助提升健康知識,重新編寫患者教育資料,如主動脈瓣狹窄,讓患者更容易理解。兩個AI平台成功提升了資料的易讀性,但並非總是達到建議的小學六年級閱讀水準。在改善易讀性和轉換時間方面,ChatGPT-3.5比Bard效果更好。AI工具有潛力未來提升心臟健康知識。 PubMed DOI

高血壓若控制不當,可能導致嚴重健康問題。許多人難以保持正常血壓。網路醫療資訊需區分真假。生成式人工智慧(GeAI)在健康資訊上廣泛應用,但需注意錯誤資訊。研究發現ChatGPT在高血壓資訊中92.5%準確,可信度達93%。GeAI潛力大,但仍需進一步研究確保醫療可靠性。 PubMed DOI

ChatGPT等自然語言AI有潛力改變醫療服務。我們評估了ChatGPT提供冠狀動脈造影相關資訊的能力,並探討了利用AI進行患者教育的機會與挑戰。ChatGPT通常提供全面資訊,但也有不準確和有限之處。雖AI可成為患者寶貴資源,但無法取代專業人員提供的個人化醫療建議。 PubMed DOI

這項研究評估了聊天機器人在診斷肺栓塞(PE)及其嚴重性評估的準確性。分析了65份病例報告,結果顯示Bard和Bing的準確率為92.3%,ChatGPT-3.5為87.6%。在首要診斷中,Bard的準確率為56.9%,ChatGPT為47.7%,Bing則為30.8%。雖然這些聊天機器人在識別大規模PE方面表現良好,但也有過度分類的問題。儘管如此,它們仍可作為臨床決策的輔助工具,未來需進一步研究以提升其在實際臨床中的表現。 PubMed DOI

本研究探討了由生成式人工智慧(AI)模型產生的下腔靜脈(IVC)濾器患者教育材料的可讀性。結果顯示,Microsoft Copilot生成的材料可讀性較高,Gunning Fog分數為11.58,明顯優於ChatGPT的17.76。雖然兩者的Flesch-Kincaid分數都未達到美國建議的閱讀水平,但Copilot的材料更易於理解,顯示出在患者教育上有更好的應用潛力。 PubMed DOI

本研究探討四種大型語言模型(LLMs)在肺栓塞影像學決策支持的準確性,包括Microsoft Bing、Claude、ChatGPT 3.5和Perplexity。結果顯示,Perplexity在開放式問題中表現最佳(0.83),而Bing在選擇所有適用項目問題中得分最高(0.96)。整體而言,開放式問題的表現優於選擇題。研究強調,LLMs的準確性不一致,需進一步改進,並指出放射科醫生在臨床決策中仍需謹慎選擇和調整。 PubMed DOI

本研究評估了ChatGPT與Google Gemini生成的急救醫療手冊在可讀性和可靠性上的差異。結果顯示,兩者在字數、句子數、可讀性及可靠性上並無顯著差異,但ChatGPT的內容較為詳細,字數多32.4%。雖然Gemini的可讀性稍高,但在特定主題上,兩者的表現各有優劣。研究強調需針對特定主題進行深入評估,以提升病患資訊的質量。 PubMed DOI

人工智慧(AI)在醫療領域的應用,特別是針對腎癌的病人教育材料(PEMs),帶來了顯著變化。本研究比較了ChatGPT 4.0、Gemini AI和Perplexity AI生成的資訊準確性與可讀性,並與美國泌尿學會(AUA)和歐洲泌尿學會(EAU)的PEMs進行對照。結果顯示,AUA的PEM可讀性最佳,AI生成的內容雖然準確,但在治療資訊上有些小遺漏。雖然AI能簡化內容,但在病人教育中使用時仍需謹慎,以免造成誤解。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI