原始文章

這項研究調查了AI聊天機器人生成的化療相關病人教育材料的質量與可讀性。研究於2024年8月進行,針對四個聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)提出十個問題。結果顯示,這些材料的平均閱讀年級為13.7,範圍在12.5到14.2之間。 質量評估使用了PEMAT和DISCERN系統,平均DISCERN分數為4.2,顯示出高質量,而PEMAT的可理解性和可行性中位數分別為91.7%和75%。研究指出,雖然AI能生成高質量的材料,但可讀性較差,可能影響病人理解,建議謹慎使用,並強調需進一步研究AI在病人教育中的有效性。 PubMed DOI


站上相關主題文章列表

研究使用AI聊天機器人改善網路上有關癌症的健康資訊易讀性,以ChatGPT 4.0修改不同癌症網站內容,提升至高中新生水準。AI內容保持高準確性、相似性和品質,有效提升病患健康資訊存取和理解,可能減少健康素養不同帶來的醫療差異。 PubMed DOI

這項研究評估了五個聊天機器人(A、B、C、D、E)在提供心臟病學、腫瘤學和銀屑病資訊的表現。主要發現包括:聊天機器人C的回應最短,A的回應最長;可讀性分數從D的16.3到A的39.8不等,顯示可讀性差異;Gunning Fog指數顯示理解文本所需的教育程度範圍廣;Dale-Chall分數則反映詞彙熟悉度。總體來說,雖然這些聊天機器人能提供可靠資訊,但回應的長度、質量和可讀性差異顯著,使用者應謹慎驗證資訊。 PubMed DOI

這項研究評估了四款熱門AI聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)提供的心臟導管插入術病人教育材料的可讀性。研究發現,這些聊天機器人的平均可讀性分數為40.2,顯示閱讀難度較高,年級水平從Meta AI的9.6到ChatGPT的14.8不等,皆高於建議的六年級水平。Meta AI的回應最簡單,而ChatGPT則最複雜。雖然這些AI能回答醫療問題,但可讀性可能不適合所有病人。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究全面評估了多款AI聊天機器人(如ChatGPT®、Bard®、Gemini®、Copilot®和Perplexity®)生成的醫療資訊的可讀性和質量。結果顯示,Bard®的可讀性最佳,而Gemini®最難閱讀。所有聊天機器人的回應都超過了建議的六年級閱讀水平,顯示病人教育材料的可及性需改進。雖然Perplexity®在質量評估中得分最高,但Gemini®的整體質量得分最佳。這強調了確保AI生成的健康資訊既易讀又高質量的重要性,以有效教育病人。 PubMed DOI

您的研究強調病人教育在心臟衰竭管理中的重要性,並探討像ChatGPT這樣的AI聊天機器人的潛力。您比較了ChatGPT的回應與頂尖心臟病學機構的教育材料,評估了可讀性和可行性。 研究發現,雖然ChatGPT的回應較長且複雜,但可讀性得分仍具競爭力。然而,其可行性得分較低,顯示資訊雖全面,但對病人來說應用不易。 這項研究強調AI在病人教育中的潛力,但也指出需進一步研究以提升這些工具的可靠性和有效性,才能被認可為可信資源。整體而言,您的工作為技術與醫療教育的交集提供了重要見解。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人對心肺復甦術(CPR)的回應質量,包括ChatGPT-3.5、Google Bard、Google Gemini和Perplexity。研究人員提出100個常見問題,獲得400個回應,並用修改版的DISCERN問卷及其他指標評估其質量。結果顯示,所有機器人的回應可讀性均超過六年級,其中Bard最佳,ChatGPT-3.5最難閱讀。研究指出,提升病人教育材料的質量和可讀性,可能有助於提高理解能力及病人存活率。 PubMed DOI

人工智慧(AI)在醫療領域的應用,特別是針對腎癌的病人教育材料(PEMs),帶來了顯著變化。本研究比較了ChatGPT 4.0、Gemini AI和Perplexity AI生成的資訊準確性與可讀性,並與美國泌尿學會(AUA)和歐洲泌尿學會(EAU)的PEMs進行對照。結果顯示,AUA的PEM可讀性最佳,AI生成的內容雖然準確,但在治療資訊上有些小遺漏。雖然AI能簡化內容,但在病人教育中使用時仍需謹慎,以免造成誤解。 PubMed DOI

這項研究評估了四個AI聊天機器人(ChatGPT、Microsoft Copilot、Google Gemini和Meta AI)生成的心臟導管插入術患者教育材料的質量。結果顯示,ChatGPT在DISCERN分數、質量和可理解性上表現最佳,而Meta AI則是質量最低。整體來看,這些AI聊天機器人能成為患者獲取心臟導管插入術資訊的有用資源,因為它們的可及性和回應質量都相當不錯。 PubMed DOI

這項研究評估了AI聊天機器人提供的對比劑相關急性腎損傷(CAAKI)資訊的可靠性。研究人員向ChatGPT、Gemini、Copilot和Perplexity四個聊天機器人詢問常見問題,結果顯示Perplexity的資訊評價為「良好」,其他則為「一般」。所有回應的可讀性都很複雜,需要大學程度才能理解,且可理解性和適用性評分都偏低。雖然在李克特量表上獲得良好評價,但研究指出AI提供的CAAKI資訊仍可能不夠易懂。 PubMed DOI