原始文章

近年來,許多期待中的母親和哺乳中的母親開始透過社交媒體尋找哺乳資訊,並使用像ChatGPT、Gemini和Copilot等AI聊天機器人獲取指導。本研究比較這三款聊天機器人的表現,針對50個哺乳問題進行評估,結果顯示它們在信息質量、可靠性和可讀性上有顯著差異。Copilot在多項評分中表現最佳,而Gemini在某些評估中也表現不俗。雖然這些AI能提供可靠的答案,但其信息的複雜性可能影響理解,未來仍需進一步研究以提升其在醫療領域的應用。 PubMed DOI


站上相關主題文章列表

這項研究比較了兩個生成式人工智慧聊天機器人,ChatGPT 和 Bard,針對常見產科麻醉問題的可讀性、準確性和回答質量。結果顯示,Bard的回答更易懂,達到高中閱讀水平,而ChatGPT則是大學水平。Bard的回答也較長,準確率相似,分別為85%和87%。在患者教育材料的可理解性上,兩者差異不大,但Bard的可行性分數較高。結論強調提供準確且易懂的麻醉資訊對於改善公眾理解及醫療決策的重要性。 PubMed DOI

這項研究評估了AI聊天機器人在為肥胖患者提供營養建議的表現,分析了兩個案例:一位35歲男性和一位65歲女性。研究測試了十種不同的AI,並由註冊營養師評估其準確性、完整性和重現性。 **主要發現:** - 在第一個案例中,ChatGPT 3.5的準確率最高(67.2%),而Copilot最低(21.1%)。ChatGPT 3.5和4.0的完整性得分最佳(87.3%)。 - 第二個案例中,無一聊天機器人準確率超過50%,ChatGPT 4.0和Claude的完整性最佳(77.8%)。 - 蛋白質攝取建議存在不一致性,部分機器人建議增加,部分則建議減少。 **結論:** 研究指出,通用型AI在複雜健康情境下的飲食建議效果有限,無法取代專業營養師。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 4.0、Claude 3.0和Gemini Pro—以及Google在回答腎臟移植後常見問題的表現。研究使用5點李克特量表評估回應質量,並透過病人教育材料評估工具(PEMAT)檢視可理解性和可行性。結果顯示,回應質量高(中位分數4),可理解性良好(中位72.7%),但可行性較差(中位20%)。可讀性較難,Claude 3.0提供最可靠的回應,而ChatGPT 4.0則在可理解性上表現突出。Google在各項指標上未能超越這些聊天機器人。 PubMed DOI

這項研究評估了多款AI聊天機器人在提供前列腺癌(PrCA)決策資訊的效果,包括ChatGPT-3.5、ChatGPT-4.0、Microsoft Copilot等。研究重點在於回應的準確性、完整性、可讀性和可信度,特別針對低識字率族群及高風險的非裔美國男性。結果顯示,雖然資訊準確,但完整性和可讀性各有差異。Microsoft Copilot Pro在標準篩檢問題上表現最佳,而Microsoft Copilot則在低識字率回應中表現突出。總體來說,AI聊天機器人可作為前列腺癌篩檢資訊的輔助資源,但仍需醫療專業指導。 PubMed DOI

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

這項研究比較了三款AI聊天機器人—ChatGPT-3.5、Gemini 1.5 Pro和Copilot—在回答口腔與顏面放射學常見問題的表現。研究選取了十五個問題,並由三位OMR專家根據科學準確性、易懂性和滿意度進行評估。結果顯示,雖然聊天機器人在科學準確性上無顯著差異,但整體文本較為複雜,需較高的閱讀水平。研究強調,與醫療專業人員驗證AI生成資訊對改善病患護理和安全性的重要性。 PubMed DOI

這項研究評估了四款AI聊天機器人(ChatGPT、Gemini、Perplexity和Copilot)提供的性傳播疾病資訊的可靠性和可讀性。結果顯示,Perplexity和Copilot的資訊較為可靠,但所有聊天機器人的可讀性都未達到建議的六年級標準,對健康素養較低的使用者來說過於複雜。研究強調了改善AI健康資訊準確性和可及性的必要性,以便讓更多人能理解。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI

這項研究比較四款免費AI聊天機器人回答肝癌相關問題的表現,發現它們雖然能提供大致正確且無偏見的資訊,但在資料來源、治療細節和說明清楚度上有差異。AI回答可作為參考,但仍需專業醫師把關,不能取代醫療建議。 PubMed DOI