原始文章

這項研究評估了四款AI聊天機器人(ChatGPT、Gemini、Perplexity和Copilot)提供的性傳播疾病資訊的可靠性和可讀性。結果顯示,Perplexity和Copilot的資訊較為可靠,但所有聊天機器人的可讀性都未達到建議的六年級標準,對健康素養較低的使用者來說過於複雜。研究強調了改善AI健康資訊準確性和可及性的必要性,以便讓更多人能理解。 PubMed DOI


站上相關主題文章列表

這項研究評估了五個聊天機器人(A、B、C、D、E)在提供心臟病學、腫瘤學和銀屑病資訊的表現。主要發現包括:聊天機器人C的回應最短,A的回應最長;可讀性分數從D的16.3到A的39.8不等,顯示可讀性差異;Gunning Fog指數顯示理解文本所需的教育程度範圍廣;Dale-Chall分數則反映詞彙熟悉度。總體來說,雖然這些聊天機器人能提供可靠資訊,但回應的長度、質量和可讀性差異顯著,使用者應謹慎驗證資訊。 PubMed DOI

這項研究全面評估了多款AI聊天機器人(如ChatGPT®、Bard®、Gemini®、Copilot®和Perplexity®)生成的醫療資訊的可讀性和質量。結果顯示,Bard®的可讀性最佳,而Gemini®最難閱讀。所有聊天機器人的回應都超過了建議的六年級閱讀水平,顯示病人教育材料的可及性需改進。雖然Perplexity®在質量評估中得分最高,但Gemini®的整體質量得分最佳。這強調了確保AI生成的健康資訊既易讀又高質量的重要性,以有效教育病人。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人對心肺復甦術(CPR)的回應質量,包括ChatGPT-3.5、Google Bard、Google Gemini和Perplexity。研究人員提出100個常見問題,獲得400個回應,並用修改版的DISCERN問卷及其他指標評估其質量。結果顯示,所有機器人的回應可讀性均超過六年級,其中Bard最佳,ChatGPT-3.5最難閱讀。研究指出,提升病人教育材料的質量和可讀性,可能有助於提高理解能力及病人存活率。 PubMed DOI

這項研究分析了五個熱門AI聊天機器人(ChatGPT、Bard、Bing、Perplexity和Claude)在回答有關輸精管結紮的問題時的準確性和可讀性。結果顯示,ChatGPT在準確性上表現最佳,其次是Bing和Claude,而Bard則在可讀性上得分最高。雖然這些聊天機器人提供的醫療資訊大致準確,但可讀性差異顯著,這對患者理解資訊至關重要。 PubMed DOI

本研究評估了ChatGPT與Google Gemini生成的急救醫療手冊在可讀性和可靠性上的差異。結果顯示,兩者在字數、句子數、可讀性及可靠性上並無顯著差異,但ChatGPT的內容較為詳細,字數多32.4%。雖然Gemini的可讀性稍高,但在特定主題上,兩者的表現各有優劣。研究強調需針對特定主題進行深入評估,以提升病患資訊的質量。 PubMed DOI

這項研究評估了ChatGPT在回答性傳播疾病(STDs)常見問題的效果。研究人員從25個政府網站收集了十個問題,並將其輸入ChatGPT進行評估。結果顯示,四個回應被評為優秀,六個需要稍微澄清,沒有一個被認為是不滿意的。這些回應也鼓勵使用者諮詢醫療專業人員。總體來看,雖然大部分答案需調整,但ChatGPT在性傳播疾病患者教育上顯示出潛力,建議未來可進一步研究如何將人工智慧融入公共衛生策略。 PubMed DOI

這項研究評估了多款AI聊天機器人在提供前列腺癌(PrCA)決策資訊的效果,包括ChatGPT-3.5、ChatGPT-4.0、Microsoft Copilot等。研究重點在於回應的準確性、完整性、可讀性和可信度,特別針對低識字率族群及高風險的非裔美國男性。結果顯示,雖然資訊準確,但完整性和可讀性各有差異。Microsoft Copilot Pro在標準篩檢問題上表現最佳,而Microsoft Copilot則在低識字率回應中表現突出。總體來說,AI聊天機器人可作為前列腺癌篩檢資訊的輔助資源,但仍需醫療專業指導。 PubMed DOI

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

這項研究評估了AI聊天機器人ChatGPT提供的長效可逆避孕法(LARC)資訊的準確性。研究發現,69.3%的回應準確,但16.3%包含過時或不準確的資訊,14.4%則有誤導性陳述。此外,45.1%的回應使用性別排他性語言,僅提及女性。平均可讀性分數顯示需具大學程度的閱讀能力。雖然ChatGPT提供的LARC資訊有其價值,但用戶應謹慎,並獨立驗證資訊的正確性。 PubMed DOI

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI