原始文章

這項研究評估了兩個AI聊天機器人,ChatGPT 3.5和Perplexity,針對Dravet症候群的問題回答表現。從醫療專業人員和照顧者收集了96個問題,並由癲癇專家評分。 主要發現包括:ChatGPT 3.5的準確率為66.7%,而Perplexity為81.3%。兩者在治療問題上表現不佳,完整性方面,ChatGPT 3.5為73.4%,Perplexity為75.7%。ChatGPT 3.5能修正55.6%的錯誤,Perplexity則為80%。可讀性上,Perplexity優於ChatGPT 3.5。研究顯示AI在醫療資訊提供上有潛力,但仍需改善。 PubMed DOI


站上相關主題文章列表

本研究比較了兩種人工智慧工具——ChatGPT和Google Gemini,在生成癲癇病人教育指南的有效性。結果顯示,兩者在多項指標上無顯著差異,但Google Gemini在理解難易度上表現較佳,特別是在全身性強直-陣攣發作、肌陣攣發作及癲癇持續狀態的回應中,且其每字音節數也較少。這顯示Google Gemini在病人教育方面更具優勢,未來需進一步提升AI工具的能力,以增進癲癇病人教育的效果。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

這項研究探討了ChatGPT在診斷成人癲癇發作的有效性,並與專家進行比較。使用37個臨床案例,結果顯示ChatGPT在識別癲癇發作上敏感度高達96.9%,但特異度較低,特別是在區分急性與非誘發性發作時。雖然在診斷癲癇綜合症和結構性原因上表現良好,但在處理模糊案例時仍有困難。相比之下,人類專家的準確性更高。研究建議未來可將AI與專家結合,以提升癲癇診斷的準確性。 PubMed DOI

這項研究調查了三款AI聊天機器人—ChatGPT、Gemini和Perplexity—在回答有關疼痛的常見問題時的可讀性、可靠性和回應質量。全球超過30%的人口面臨慢性疼痛,許多人會在就醫前尋找健康資訊。研究發現,這三款聊天機器人的可讀性均超過六年級水平,其中Gemini最佳。質量方面,Gemini得分較高,而Perplexity在可靠性評估中表現較好。總體來說,這些聊天機器人的回應難以閱讀,且可靠性和質量較低,無法取代專業醫療諮詢,建議改善可讀性並加強專家監督。 PubMed DOI

這項研究評估了ChatGPT在回答過敏學問題的表現,顯示它對於等待專科門診的病患來說是一個方便的資源。研究針對120個問題進行評估,結果顯示ChatGPT的整體準確性不錯(平均4.1分),但在兒科問題的完整性和人性化程度上較低。特別是與兒童食物過敏相關的錯誤,可能會造成生命危險。這強調了ChatGPT在提供過敏學建議上的局限性,並建議諮詢專業醫師的重要性。調整AI工具以適應特定醫療情境,可能會提升其臨床有效性。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項初步研究發現,ChatGPT 3.5回答腦血管問題時,比醫師更完整、有同理心,正確率也差不多,但用詞較艱深,一般人可能看不懂。未來可考慮結合AI和醫師意見,幫助病患更好溝通。 PubMed DOI

這項研究發現,採用檢索增強技術的AI聊天機器人(如ChatGPT-4o Deep Research等)在提供結節病資訊時,比一般AI更準確可靠。不過,他們的回答多半太艱深,病人不易看懂,而且給的實際建議也不夠明確。整體來說,AI雖然能提供高品質資訊,但在易讀性和實用性上還有進步空間。 PubMed DOI

這項研究比較ChatGPT、Perplexity和Gemini三款AI聊天機器人,針對僵直性脊椎炎的回答。結果發現,三者的答案都超過國中六年級的閱讀難度,一般人較難看懂。Perplexity的資訊最可靠、品質也最好。不過,整體來說,這些AI在可讀性、正確性和品質上還有進步空間,未來仍需加強與監督。 PubMed DOI