原始文章

這項研究評估了大型語言模型(LLM)聊天機器人對於常見病人問題(如下背痛)的回答準確性和可讀性。分析了30個問題,結果顯示120個回答中,55.8%準確,42.1%不準確,1.9%不清楚。治療和自我管理的回答較準確,風險因素則最不準確。可讀性平均得分為50.94,顯示文本相對困難。此外,70%-100%的回答都有健康建議的免責聲明。總體而言,雖然LLM聊天機器人有潛力,但準確性和可讀性差異可能影響病人理解。 PubMed DOI


站上相關主題文章列表

這項研究比較了ChatGPT 4o和ChatGPT 4o mini在診斷和治療伴隨神經根症狀的腰椎間盤突出(LDH)的能力。研究評估了21個問題,並由五位骨科醫生檢視兩者的回答準確性和可靠性。結果顯示,ChatGPT 4o在分析53名病人的影像時,識別LDH的準確率達0.81,且與醫生的協議程度為中等。雖然兩者都有強大的臨床支援能力,但ChatGPT 4o的回答更全面。不過,內容的複雜性仍需改進,以提升病人的理解和減少焦慮。 PubMed DOI

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI

旋轉袖肌腱撕裂是常見的肩部傷害,會影響功能和生活品質。隨著人們越來越依賴人工智慧大型語言模型(AI LLMs)獲取健康資訊,評估其資訊質量和可讀性變得重要。一項研究針對此傷害生成50個問題,分析了多個AI模型及Google搜尋的回應。結果顯示,雖然有改進潛力,但目前的AI LLM在醫療資訊的質量和可讀性上仍不足,未來需持續評估並提升其表現,以更好地支持病人教育。 PubMed DOI

三款主流聊天機器人(ChatGPT 4.0、Claude 2、Gemini)回答阿基里斯肌腱病變相關問題,ChatGPT 4.0「優秀」答案較多,但總分差不多。專家評分有落差,顯示標準化評估還不夠。雖然這些AI能提供不錯的醫療資訊,但臨床應用時還是要小心。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究比較了三款大型語言模型(ChatGPT-4、Copilot、Gemini)回答梨狀肌症候群相關問題的表現。結果發現,ChatGPT 和 Gemini 的答案比 Copilot 更完整、品質也較好,但三者在正確性上差不多。整體來說,這些AI有潛力協助健康諮詢,但還需要再加強,才能讓資訊更正確、完整又好懂。 PubMed DOI

這項研究發現,ChatGPT在回答硬脊膜外類固醇注射相關問題時,整體來說資訊正確且清楚,尤其是針對一般性問題。不過,AI在展現同理心方面表現有限,有時也會離題。未來若要在臨床上廣泛應用,還需要更精確的提問設計和更多研究來確保病人安全。 PubMed DOI

這項研究比較ChatGPT、Perplexity和Gemini三款AI聊天機器人,針對僵直性脊椎炎的回答。結果發現,三者的答案都超過國中六年級的閱讀難度,一般人較難看懂。Perplexity的資訊最可靠、品質也最好。不過,整體來說,這些AI在可讀性、正確性和品質上還有進步空間,未來仍需加強與監督。 PubMed DOI