原始文章

這項研究探討了AI平台(如ChatGPT、Google Bard、Microsoft Bing)在生成牙齒矯正治療計畫的效果,並與經驗豐富的牙醫計畫進行比較。研究中,34位牙醫評估AI生成的計畫,結果顯示他們對專業醫師的計畫認同度明顯高於AI(p < 0.001),顯示人類專業知識更具信心。雖然AI之間無顯著差異,但Google Bard評分最低。總體來看,研究認為AI對牙齒矯正有幫助,但醫師的臨床判斷和經驗仍然至關重要。 PubMed DOI


站上相關主題文章列表

研究評估透明牙套相關ChatGPT回答的正確性,由牙醫提問,再由5位牙醫評分。整體得分為4分中的2.6分,發現虛假宣稱。ChatGPT回答缺乏引用來源,並非總是正確,使用時需謹慎。 PubMed DOI

研究探討AI在牙科領域中評估牙齒狀況治療建議的應用。專家組設計了基於證據的建議,並與ChatGPT和Bard生成的AI建議進行比較。研究發現,AI建議與文獻一致,其中GPT4準確性最高。顯示AI在指導臨床牙科實踐上有潛力。 PubMed DOI

研究比較了ChatGPT-3.5和Google Bard兩個AI模型回答牙齒矯正問題的表現。結果發現,ChatGPT稍微勝出,兩者回答都準確完整,但Google Bard回答速度較快。總結來說,兩者都能提供正確完整的答案,Google Bard則更快速。 PubMed DOI

研究指出,微軟的 Bing Chat 在牙齒矯正領域表現最優秀,ChatGPT-4、Google Bard 和 ChatGPT-3.5次之。儘管語言模型對於牙齒矯正有潛力,但應謹慎考量其限制,不能全然依賴。在臨床應用前,仍需進行更多研究、驗證和改進。醫師在使用時應小心應對模型的限制,以免對患者造成負面影響。 PubMed DOI

一項研究比較了ChatGPT-4和Google Bard在回答牙齒矯正問題時的知識準確度。ChatGPT-4在MARPE、CBCT和CA等領域表現較佳,平均得分為92.6%,而Google Bard則為72%。GPT-4提供了更準確和最新的有關牙齒矯正治療方法的資訊。 PubMed DOI

對於ChatGPT-3.5、ChatGPT-4、Gemini和Copilot在正畸透明矯正器的回應評估,發現幾個重點: 1. **準確性**:ChatGPT-4表現最佳,平均分數4.5,Copilot次之(4.35),其他模型差異不大。 2. **可靠性**:Copilot在可靠性上優於其他模型,Gemini也高於ChatGPT-3.5。 3. **品質**:Copilot提供的資訊最全面可信。 4. **可讀性**:所有模型的可讀性較低,Gemini表現較佳,FRES達54.12。 總體來看,這些模型在準確性和可靠性上表現良好,但可讀性仍需改善,以更好地服務病人。 PubMed DOI

這項研究評估了ChatGPT在正畸領域的資訊可靠性,涵蓋透明矯正器、舌側矯正、美觀牙套和顳顎關節障礙。結果顯示,患者對資訊的評價普遍較高,尤其在透明矯正器和顳顎關節障礙方面,患者的DISCERN分數明顯高於學生和正畸醫師。整體而言,ChatGPT在患者教育上展現潛力,但仍需進一步改進以提升其可靠性和相關性。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4與Microsoft Copilot在提供3D列印矯正器具資訊的表現,重點在準確性、完整性和回應時間。研究分為五個階段,最終確定105個問題進行測試。結果顯示,ChatGPT-4在準確性和完整性上均優於Copilot,且兩者在評估一致性上幾乎沒有相關性。雖然回應時間無顯著差異,但ChatGPT-4在解答複雜問題上表現更佳。 PubMed DOI

這項研究探討了對話式人工智慧ChatGPT-4在解答正畸病人常見問題的有效性,並與兩位正畸醫師的回答進行比較。研究中,ChatGPT在30個問題中有61個案例排名第一,平均排名為1.69,明顯優於正畸醫師的排名(醫師A: 2.23,醫師B: 2.08)。兩位醫師之間的排名差異不大,而ChatGPT的排名與評估者共識有強正相關(Spearman係數0.69)。總體來看,研究建議ChatGPT-4在回答病人常見問題上可能更有效,尤其是在正畸領域。 PubMed DOI