原始文章

這項研究評估了ChatGPT對於哮喘常見問題的回答能力,重點在於其可靠性、可接受性和可讀性。研究人員從全球哮喘倡議組織收集了30個問題,並詢問ChatGPT兩次以檢查一致性。五位內科醫師評估了這些回答,結果顯示93.33%的回答被認為可靠,平均評分為3.65分(滿分4分)。不過,78.3%的回答對患者可接受,但可讀性較差,顯示仍需改進,以便更適合患者使用。 PubMed DOI


站上相關主題文章列表

這項研究比較了ChatGPT和選定網站提供的健康相關資訊。雖然ChatGPT回應迅速並從各種來源收集資訊,但研究發現網站在可靠性和易讀性方面得分較高。像ChatGPT這樣的人工智慧有潛力,但在提供準確且易理解的資訊方面仍落後於傳統方法。 PubMed DOI

研究評估了ChatGPT提供的過敏性鼻炎相關資訊的正確性,結果顯示部分答案準確,但也有不準確之處。在使用像ChatGPT這樣的聊天機器人時,應該謹慎,並應該優先諮詢醫師意見,網路資源僅供參考。ChatGPT可作為病人教育的輔助,但不能取代專業醫護。 PubMed DOI

這項研究評估了ChatGPT對勃起功能障礙(ED)相關問題的回答,包括準確性、易讀性和可重複性。ChatGPT在疾病流行病學和治療風險以及諮詢方面提供了準確的回答,但對治療選項的理解不完整。回答通常易讀,但有時對一般患者來說過於專業。在不同問題領域中,可重複性有所不同。 PubMed DOI

研究發現ChatGPT生成的西班牙文慢性疾病資訊大部分可靠,但易讀性中等困難。糖尿病和類風濕性關節炎的可靠性較高,建議改進易讀性。ChatGPT可成為西班牙語患者的資訊來源。 PubMed DOI

研究比較了ChatGPT和傳統網路搜尋對耳鼻喉科問題的表現,發現ChatGPT回答可讀性稍差但理解度高。在診斷問題上表現較佳,對事實或政策問題則無明顯差異。透過提示可提升ChatGPT回答的可讀性,顯示其在提供醫學資訊上有潛力,尤其在症狀診斷方面。 PubMed DOI

研究評估ChatGPT在鼻科病理學資訊的品質和可靠性,提出65問題探討病因、風險、治療、預後。使用Discern問卷和Fleiss's Kappa分析,整體品質得分為3.59,可靠性較低為3.18,一致性為0.69。研究認為ChatGPT回答準確可靠,提供易懂描述,建議在專業監督下可成為有用工具。 PubMed DOI

研究評估了ChatGPT在回答醫學問題,特別是傳染病方面的可靠性。使用200個問題,答案取自權威指南,再現性和重複性測試皆通過。對比指南問題,社交媒體問題回答率高達92%。雖然ChatGPT等人工智慧可應用於醫療保健,但仍需謹慎使用。 PubMed DOI

這項研究評估了ChatGPT對臨床問題的回答,與人類撰寫的網站Pearls4Peers.com進行比較,重點在可用性和可靠性。研究發現,ChatGPT的回答質量有顯著差異,約14%的回答被認為不實用,13%不準確。與人類來源相比,ChatGPT在可用性和可靠性方面的表現均不佳,超過30%的情況下表現不如人類。總體來看,這顯示在臨床決策中使用ChatGPT需謹慎。 PubMed DOI

這項研究評估了ChatGPT在回答藥物相關問題的有效性,並與傳統藥物資訊資源的答案進行比較。在39個問題中,ChatGPT僅有10個(26%)的回答令人滿意,常見問題包括缺乏直接回應、準確性和完整性。雖然29%的回答有參考資料,但這些資料都是虛構的。研究結果建議醫療專業人員和患者在使用ChatGPT查詢藥物資訊時要特別小心。 PubMed DOI

這項研究評估了ChatGPT-3.5在提供阻塞性睡眠呼吸暫停症(OSA)資訊的有效性,並與Google搜尋進行比較。結果顯示,ChatGPT-3.5在資訊品質和可靠性上明顯優於Google搜尋,但可讀性較差。具體來說,ChatGPT-3.5在全球品質評分和內容可靠性上得分較高,而Google搜尋則提供了更易讀的內容。研究指出,ChatGPT-3.5是病人教育的好資源,但需改善可讀性,以便讓更多病人能夠理解。醫療提供者應協助病人評估線上健康資訊的可靠性。 PubMed DOI