原始文章

這項研究評估了ChatGPT在正畸領域的資訊可靠性,涵蓋透明矯正器、舌側矯正、美觀牙套和顳顎關節障礙。結果顯示,患者對資訊的評價普遍較高,尤其在透明矯正器和顳顎關節障礙方面,患者的DISCERN分數明顯高於學生和正畸醫師。整體而言,ChatGPT在患者教育上展現潛力,但仍需進一步改進以提升其可靠性和相關性。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT在提供牙齒矯正主題資訊的準確性。評估者評分ChatGPT提供的答案質量,大多數答案被認為是好或非常好的。總的來說,ChatGPT被發現在提供關於透明牙套、暫時固定裝置和牙齒矯正數位影像方面的優質資訊上是有效的。 PubMed DOI

研究評估透明牙套相關ChatGPT回答的正確性,由牙醫提問,再由5位牙醫評分。整體得分為4分中的2.6分,發現虛假宣稱。ChatGPT回答缺乏引用來源,並非總是正確,使用時需謹慎。 PubMed DOI

這項研究評估了ChatGPT對牙齒矯正問題回答的可靠性和易讀性,並追蹤了回答品質隨時間變化的情況。這些回答經過易讀性測試,顯示在更新版本中可靠性有所提高,但易讀性下降。綜合評估,這些回答通常被評為中等可靠性,在第二次評估中變得更難閱讀。 PubMed DOI

研究評估了ChatGPT在回答有關可拆卸式牙科假牙(RDPs)和固定式牙科假牙(FDPs)的問題時的表現。30個問題,每個問題有30個答案,專家評分後發現可靠性有限。結論指出ChatGPT在回答RDPs和FDPs問題上能力有限,不能取代牙醫,專業人士應謹慎對待其限制。 PubMed DOI

這個研究評估了ChatGPT在回答牙齒矯正問題和臨床情境中的表現。結果顯示,在回答臨床案例時,ChatGPT的準確性和完整性都很高。然而,ChatGPT並非完美,無法完全取代人類專業知識。 PubMed DOI

研究指出,微軟的 Bing Chat 在牙齒矯正領域表現最優秀,ChatGPT-4、Google Bard 和 ChatGPT-3.5次之。儘管語言模型對於牙齒矯正有潛力,但應謹慎考量其限制,不能全然依賴。在臨床應用前,仍需進行更多研究、驗證和改進。醫師在使用時應小心應對模型的限制,以免對患者造成負面影響。 PubMed DOI

一項研究比較了ChatGPT-4和Google Bard在回答牙齒矯正問題時的知識準確度。ChatGPT-4在MARPE、CBCT和CA等領域表現較佳,平均得分為92.6%,而Google Bard則為72%。GPT-4提供了更準確和最新的有關牙齒矯正治療方法的資訊。 PubMed DOI

對於ChatGPT-3.5、ChatGPT-4、Gemini和Copilot在正畸透明矯正器的回應評估,發現幾個重點: 1. **準確性**:ChatGPT-4表現最佳,平均分數4.5,Copilot次之(4.35),其他模型差異不大。 2. **可靠性**:Copilot在可靠性上優於其他模型,Gemini也高於ChatGPT-3.5。 3. **品質**:Copilot提供的資訊最全面可信。 4. **可讀性**:所有模型的可讀性較低,Gemini表現較佳,FRES達54.12。 總體來看,這些模型在準確性和可靠性上表現良好,但可讀性仍需改善,以更好地服務病人。 PubMed DOI

這項研究探討了ChatGPT 3.5在回答牙科問題的準確性和完整性。十位專家提出30個問題,並用李克特量表評估ChatGPT的回答。結果顯示,雖然ChatGPT的準確性(中位數5.50)和完整性(中位數2.00)表現不錯,但仍有改進空間。經過重新評估後,其表現顯著提升,顯示機器學習的潛力。不過,研究也指出仍有不準確之處,特別是參考資料,強調人類判斷在臨床決策中的重要性,以及基於證據的醫療實踐的必要性。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI