原始文章

這項研究評估了OpenAI的ChatGPT-4與Microsoft Copilot在提供3D列印矯正器具資訊的表現,重點在準確性、完整性和回應時間。研究分為五個階段,最終確定105個問題進行測試。結果顯示,ChatGPT-4在準確性和完整性上均優於Copilot,且兩者在評估一致性上幾乎沒有相關性。雖然回應時間無顯著差異,但ChatGPT-4在解答複雜問題上表現更佳。 PubMed DOI


站上相關主題文章列表

研究比較了不同AI聊天機器人在正顎手術中的表現,結果顯示回答品質高、可靠性佳,但易讀性需高學歷。ChatGPT-4有創意,OpenEvidence則回答相似。儘管聊天機器人提供高品質答案,仍建議諮詢專業醫師。 PubMed DOI

研究比較了ChatGPT-3.5和Google Bard兩個AI模型回答牙齒矯正問題的表現。結果發現,ChatGPT稍微勝出,兩者回答都準確完整,但Google Bard回答速度較快。總結來說,兩者都能提供正確完整的答案,Google Bard則更快速。 PubMed DOI

一項研究比較了ChatGPT-4和Google Bard在回答牙齒矯正問題時的知識準確度。ChatGPT-4在MARPE、CBCT和CA等領域表現較佳,平均得分為92.6%,而Google Bard則為72%。GPT-4提供了更準確和最新的有關牙齒矯正治療方法的資訊。 PubMed DOI

對於ChatGPT-3.5、ChatGPT-4、Gemini和Copilot在正畸透明矯正器的回應評估,發現幾個重點: 1. **準確性**:ChatGPT-4表現最佳,平均分數4.5,Copilot次之(4.35),其他模型差異不大。 2. **可靠性**:Copilot在可靠性上優於其他模型,Gemini也高於ChatGPT-3.5。 3. **品質**:Copilot提供的資訊最全面可信。 4. **可讀性**:所有模型的可讀性較低,Gemini表現較佳,FRES達54.12。 總體來看,這些模型在準確性和可靠性上表現良好,但可讀性仍需改善,以更好地服務病人。 PubMed DOI

這項研究評估了ChatGPT在正畸領域的資訊可靠性,涵蓋透明矯正器、舌側矯正、美觀牙套和顳顎關節障礙。結果顯示,患者對資訊的評價普遍較高,尤其在透明矯正器和顳顎關節障礙方面,患者的DISCERN分數明顯高於學生和正畸醫師。整體而言,ChatGPT在患者教育上展現潛力,但仍需進一步改進以提升其可靠性和相關性。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 PubMed DOI

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI

這項研究探討了對話式人工智慧ChatGPT-4在解答正畸病人常見問題的有效性,並與兩位正畸醫師的回答進行比較。研究中,ChatGPT在30個問題中有61個案例排名第一,平均排名為1.69,明顯優於正畸醫師的排名(醫師A: 2.23,醫師B: 2.08)。兩位醫師之間的排名差異不大,而ChatGPT的排名與評估者共識有強正相關(Spearman係數0.69)。總體來看,研究建議ChatGPT-4在回答病人常見問題上可能更有效,尤其是在正畸領域。 PubMed DOI