原始文章

這項研究發現,採用檢索增強技術的AI聊天機器人(如ChatGPT-4o Deep Research等)在提供結節病資訊時,比一般AI更準確可靠。不過,他們的回答多半太艱深,病人不易看懂,而且給的實際建議也不夠明確。整體來說,AI雖然能提供高品質資訊,但在易讀性和實用性上還有進步空間。 PubMed DOI


站上相關主題文章列表

這項研究評估了五個聊天機器人(A、B、C、D、E)在提供心臟病學、腫瘤學和銀屑病資訊的表現。主要發現包括:聊天機器人C的回應最短,A的回應最長;可讀性分數從D的16.3到A的39.8不等,顯示可讀性差異;Gunning Fog指數顯示理解文本所需的教育程度範圍廣;Dale-Chall分數則反映詞彙熟悉度。總體來說,雖然這些聊天機器人能提供可靠資訊,但回應的長度、質量和可讀性差異顯著,使用者應謹慎驗證資訊。 PubMed DOI

這項研究探討AI聊天機器人對骨肉瘤患者護理的影響,分析其風險與好處。研究者向三個聊天機器人提出與診斷、治療和康復相關的問題,並根據五個指標評估其回答。結果顯示,聊天機器人在相關性和平衡性方面表現良好,但在數據基礎、完整性和事實準確性上得分較低。GPT-4在同理心方面得分最高,但在治療和康復問題的可行性較低。整體而言,雖然AI有潛力,但在準確性和可及性上仍有待改善,影響其臨床應用。 PubMed DOI

最近調查顯示,48%的消費者使用生成式AI查詢健康資訊,但對於AI聊天機器人在緊急護理建議的回應質量研究仍然不足。一項針對四款免費AI聊天機器人的研究發現,雖然它們在清晰度和可理解性上表現良好,但準確性和來源可靠性卻相當低。危險信息的出現率在5%到35%之間,且各機器人之間差異不大。研究建議應加強對AI聊天機器人的研究與規範,並強調諮詢醫療專業人員的重要性,以避免潛在風險。 PubMed DOI

這項研究評估了AI聊天機器人提供的對比劑相關急性腎損傷(CAAKI)資訊的可靠性。研究人員向ChatGPT、Gemini、Copilot和Perplexity四個聊天機器人詢問常見問題,結果顯示Perplexity的資訊評價為「良好」,其他則為「一般」。所有回應的可讀性都很複雜,需要大學程度才能理解,且可理解性和適用性評分都偏低。雖然在李克特量表上獲得良好評價,但研究指出AI提供的CAAKI資訊仍可能不夠易懂。 PubMed DOI

本研究比較了ChatGPT-4和Google在結腸癌相關問題上的資訊質量與可靠性。選取二十個常見問題進行評估,結果顯示ChatGPT-4在可靠性、準確性和可理解性上均優於Google。雖然Google的可見性較高,但其資訊的可靠性仍令人擔憂。總體而言,ChatGPT-4在提供結腸癌醫療資訊方面表現更佳,顯示出AI平台在病人教育上的潛力,但仍需進一步研究以確認這些結果的普遍性。 PubMed DOI

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究比較了三款熱門AI聊天機器人回答氣喘管理問題的表現。ChatGPT最可靠、準確且完整,Bard則最容易懂。不過,三款機器人的答案都有落差,不能完全取代醫師建議。AI可輔助衛教,但臨床決策還是要小心使用。 PubMed DOI

這項研究比較四款免費AI聊天機器人回答肝癌相關問題的表現,發現它們雖然能提供大致正確且無偏見的資訊,但在資料來源、治療細節和說明清楚度上有差異。AI回答可作為參考,但仍需專業醫師把關,不能取代醫療建議。 PubMed DOI