原始文章

這篇文章評估了ChatGPT在回答父母關於早期兒童齲齒(ECC)問題的有效性。研究中向ChatGPT 3.5提出80個常見問題,結果顯示其對82.5%的問題提供了「非常有用」或「有用」的答案,整體質量得分為4.3分(滿分5分)。不過,可靠性得分中等到非常好,但可理解性和可行性得分較低,表示回應對父母來說不易理解或採取行動。此外,內容的可讀性也較差,部分回應還包含誤導性或錯誤資訊。總體而言,雖然ChatGPT在提供ECC資訊上有潛力,但在可讀性、可行性和準確性方面仍需改善。 PubMed DOI


站上相關主題文章列表

研究評估了ChatGPT在提供第三顎齒手術資訊的準確性,結果顯示90.63%的資訊可信。ChatGPT提供可靠資訊,但應附上參考來源。病患要留意資訊來源,醫療人員可推薦ChatGPT作為可靠資源。 PubMed DOI

這項研究評估了ChatGPT在提供口腔癌早期檢測資訊方面的效果,透過向它提出108個針對患者的問題。ChatGPT大多給出非常有用的回答,並獲得良好的質量和可靠性評分。然而,人們對所提供資訊的易讀性和可操作性表示擔憂。 PubMed DOI

研究發現ChatGPT能夠回答父母有關手術的問題,但回答有時過於複雜。儘管提供正確資訊,但可讀性可能不易理解。這表示ChatGPT的回應有時超出患者理解範圍,需要更容易理解的語言。 PubMed DOI

人工智慧,尤其是ChatGPT,因為資料增加和運算能力提升,被廣泛運用。在醫學領域,人們正研究用於臨床查詢和研究。家長可能會用ChatGPT尋求子女健康資訊,因為它方便易用。研究評估了ChatGPT對兒童口腔健康問題回答的清晰度、正確性和完整性,兒童牙科醫師發現大部分回答適當,但還有改進空間。 PubMed DOI

這項研究評估了ChatGPT對家長詢問兒童眼科和斜視問題的回答準確性。分析了817個問題,結果顯示78.09%的回答完全正確,19.09%正確但不完整,只有2.81%部分不正確,且沒有完全錯誤的回答。平均可讀性分數為14.49,超過成人的標準,這引發了一些擔憂。儘管可讀性有待改善,研究仍顯示ChatGPT能提供準確可靠的資訊,顯示其在醫療領域的潛力。 PubMed DOI

這項研究評估了ChatGPT在口腔外科、預防牙科和口腔癌領域提供的資訊質量。專家設計了50個問題,結果顯示ChatGPT在預防牙科方面表現最佳,得分4.3(滿分5),能有效傳達複雜資訊。但在口腔外科(3.9)和口腔癌(3.6)方面得分較低,顯示在術後指導和個性化建議上有不足。研究強調在使用AI資訊時需有專業監督,並持續評估AI的能力,以確保病人護理的負責任使用。 PubMed DOI

這項研究評估了ChatGPT在提供兒童牙科資訊的有效性,重點在病患和家長的教育。研究中提出60個問題,涵蓋牙齒創傷、氟化物及口腔健康。結果顯示,對於病患/家長的回應平均質量為4.3,而學術問題則為3.7,顯示質量有明顯差異。牙齒創傷的學術問題得分最低。雖然ChatGPT能提供質量資訊,但對於可讀性仍有挑戰,建議進一步改進以增強與使用者的互動。 PubMed DOI

這項研究評估了ChatGPT-3.5在回答口腔癌相關問題的準確性,因為早期診斷對患者結果影響重大。研究中提出20個問題,並由醫療專家評估其回答。結果顯示,51.25%的答案被評為非常好,46.25%為好,僅2.5%可接受。專家評分間無顯著差異。雖然ChatGPT提供的資訊可靠,但引用的81篇文獻中,只有13篇是合法的科學文章,10篇為假文獻,其餘則來自各種網站。總體而言,ChatGPT的資訊值得參考,但需謹慎對待其引用來源。 PubMed DOI

尿道下裂是一種常見的先天性疾病,對父母的教育非常重要。本研究探討了ChatGPT在提供尿道下裂相關資訊的表現,針對診斷、治療及術後護理提出問題,並使用PEMAT-P工具評估其可理解性和可行性。結果顯示可理解性得分平均為88%,可行性則為51%。在準確性評估中,41%的回應被認為完全準確。整體Kappa值為0.607,顯示醫生間對資訊準確性有共識。未來需改善回應的準確性,並考慮加入視覺輔助工具以協助父母。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI