原始文章

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI


站上相關主題文章列表

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

這項研究評估了大型語言模型(LLM)聊天機器人對於常見病人問題(如下背痛)的回答準確性和可讀性。分析了30個問題,結果顯示120個回答中,55.8%準確,42.1%不準確,1.9%不清楚。治療和自我管理的回答較準確,風險因素則最不準確。可讀性平均得分為50.94,顯示文本相對困難。此外,70%-100%的回答都有健康建議的免責聲明。總體而言,雖然LLM聊天機器人有潛力,但準確性和可讀性差異可能影響病人理解。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

這項研究評估了六款生成式AI聊天機器人在跟腱斷裂相關問題上的可讀性和回應質量,目的是探討它們作為病人教育工具的潛力。分析的聊天機器人包括ChatGPT 3.5、ChatGPT 4、Gemini 1.0、Gemini 1.5 Pro、Claude和Grok。結果顯示,Gemini 1.0的可讀性最佳,對一般讀者最易理解;而在回應質量上,Gemini 1.0和ChatGPT 4的表現優於其他模型。整體而言,這些聊天機器人都能提供高於平均水平的資訊,顯示出它們在病人教育上的價值。 PubMed DOI

這項研究比較三款AI聊天機器人回答腕隧道症候群相關問題的表現。ChatGPT-4o 回答最詳細,但 AMBOSS GPT 的答案最常被 UpToDate 證實,正確率最高。總結來說,GPT-4o 資訊多,AMBOSS GPT 則較可靠。 PubMed DOI

這項研究比較了ChatGPT-3.5、Copilot和Gemini三款聊天機器人,發現它們回答根管再治療相關問題時,內容都太難懂,超過一般病人能輕鬆理解的程度。雖然Gemini表現最好,但還是沒達到理想的衛教標準,顯示這些AI工具未來還需要加強,才能真正幫助病人了解醫療資訊。 PubMed DOI

這項研究發現,Google Gemini 在回答顳顎關節障礙問題時正確率最高,但 ChatGPT-4o 的答案最完整、最可靠。兩者都會提供參考資料和安全建議,但參考內容不一定有實證。Gemini 會用多媒體輔助說明。整體來說,ChatGPT-4o 和 Gemini 都能給出正確又好懂的資訊,但參考資料還有改進空間。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究發現,ChatGPT在回答硬脊膜外類固醇注射相關問題時,整體來說資訊正確且清楚,尤其是針對一般性問題。不過,AI在展現同理心方面表現有限,有時也會離題。未來若要在臨床上廣泛應用,還需要更精確的提問設計和更多研究來確保病人安全。 PubMed DOI

這項研究比較ChatGPT、Perplexity和Gemini三款AI聊天機器人,針對僵直性脊椎炎的回答。結果發現,三者的答案都超過國中六年級的閱讀難度,一般人較難看懂。Perplexity的資訊最可靠、品質也最好。不過,整體來說,這些AI在可讀性、正確性和品質上還有進步空間,未來仍需加強與監督。 PubMed DOI