原始文章

這項研究評估了ChatGPT在回答兒童發燒相關問題的有效性。研究人員挑選了50個常見問題,並分析了ChatGPT的回答質量與可讀性。結果顯示,ChatGPT的回答不僅質量高,還容易理解,透過多種可讀性指標來衡量。研究發現GFOG和SMOG分數之間有微弱正相關,而FGL和SMOG則有強正相關。總體來說,這項研究強調了AI生成的發燒資訊的可靠性,建議像ChatGPT這樣的工具可成為父母和照顧者的寶貴資源。 PubMed DOI


站上相關主題文章列表

這項研究比較了ChatGPT和選定網站提供的健康相關資訊。雖然ChatGPT回應迅速並從各種來源收集資訊,但研究發現網站在可靠性和易讀性方面得分較高。像ChatGPT這樣的人工智慧有潛力,但在提供準確且易理解的資訊方面仍落後於傳統方法。 PubMed DOI

研究比較了ChatGPT和傳統網路搜尋對耳鼻喉科問題的表現,發現ChatGPT回答可讀性稍差但理解度高。在診斷問題上表現較佳,對事實或政策問題則無明顯差異。透過提示可提升ChatGPT回答的可讀性,顯示其在提供醫學資訊上有潛力,尤其在症狀診斷方面。 PubMed DOI

研究發現ChatGPT能夠回答父母有關手術的問題,但回答有時過於複雜。儘管提供正確資訊,但可讀性可能不易理解。這表示ChatGPT的回應有時超出患者理解範圍,需要更容易理解的語言。 PubMed DOI

人工智慧,尤其是ChatGPT,因為資料增加和運算能力提升,被廣泛運用。在醫學領域,人們正研究用於臨床查詢和研究。家長可能會用ChatGPT尋求子女健康資訊,因為它方便易用。研究評估了ChatGPT對兒童口腔健康問題回答的清晰度、正確性和完整性,兒童牙科醫師發現大部分回答適當,但還有改進空間。 PubMed DOI

研究發現ChatGPT在回答本體性震顫問題上表現不錯,但專業人士間意見不一致,易讀性有待提升。建議ChatGPT提供的資訊會因對ET的認知而有所不同,未來需重視監控大型語言模型生成的健康相關內容。 PubMed DOI

這項研究評估了ChatGPT對家長詢問兒童眼科和斜視問題的回答準確性。分析了817個問題,結果顯示78.09%的回答完全正確,19.09%正確但不完整,只有2.81%部分不正確,且沒有完全錯誤的回答。平均可讀性分數為14.49,超過成人的標準,這引發了一些擔憂。儘管可讀性有待改善,研究仍顯示ChatGPT能提供準確可靠的資訊,顯示其在醫療領域的潛力。 PubMed DOI

這項研究評估了ChatGPT對於哮喘常見問題的回答能力,重點在於其可靠性、可接受性和可讀性。研究人員從全球哮喘倡議組織收集了30個問題,並詢問ChatGPT兩次以檢查一致性。五位內科醫師評估了這些回答,結果顯示93.33%的回答被認為可靠,平均評分為3.65分(滿分4分)。不過,78.3%的回答對患者可接受,但可讀性較差,顯示仍需改進,以便更適合患者使用。 PubMed DOI

這項研究評估了ChatGPT在回答近視相關問題的有效性,重點在於適當性、可用性和清晰度。眼科醫生評估後發現,只有45%的回應被認為適當且可用,僅35%的回應符合所有標準。根據中文可讀性指數,回應的可讀性介於中學到高中水平。特別是關於治療效果和副作用的回應較少。總體來看,ChatGPT在解答兒童近視問題上表現不佳,顯示出眼科專業人士理解AI生成資訊的重要性,因為家長們越來越依賴線上健康資源。 PubMed DOI

這項研究評估了ChatGPT在小兒重症監護病房(PICU)中,對父母問題的回應品質。研究針對三位不同病況的病人,檢視八個常見問題的回答。六位醫師根據準確性、完整性、同理心和可理解性進行評估。結果顯示,ChatGPT的回應普遍高品質,準確性和同理心得分均為5.0,且97%的問題得到完整回答。研究顯示,ChatGPT能有效融入病人特異性資訊,顯示其在醫療溝通中的潛力。 PubMed DOI

這項研究評估了ChatGPT在回答性傳播疾病(STDs)常見問題的效果。研究人員從25個政府網站收集了十個問題,並將其輸入ChatGPT進行評估。結果顯示,四個回應被評為優秀,六個需要稍微澄清,沒有一個被認為是不滿意的。這些回應也鼓勵使用者諮詢醫療專業人員。總體來看,雖然大部分答案需調整,但ChatGPT在性傳播疾病患者教育上顯示出潛力,建議未來可進一步研究如何將人工智慧融入公共衛生策略。 PubMed DOI