原始文章

這項研究探討大型語言模型(LLMs)在診斷燒灼口症候群(BMS)的準確性。研究使用了三個模型:ChatGPT-4o、Gemini Advanced 1.5 Pro和Claude 3.5 Sonnet,評估100個合成案例。結果顯示,ChatGPT和Claude的準確率達99%,而Gemini為89%。雖然準確率高,但模型在推理上有變異,偶爾會出錯,顯示臨床醫師監督的重要性。研究指出,LLMs可作為BMS的輔助診斷工具,但需專家驗證以確保有效性,對牙醫和專家皆有幫助。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在基礎牙科護理中展現潛力,特別是在診斷口腔疾病方面。評估顯示,這些模型在診斷顳顎關節障礙、牙周病、齲齒和錯牙合等病症上都有不錯的表現。特別是ChatGPT 3.5在中文中對牙髓炎的診斷能力從0%提升至61.7%,但對冠周炎的診斷能力下降。相比之下,ChatGPT 4.0在牙髓炎和冠周炎的診斷上都有顯著提升。總體來看,雖然LLMs在牙科護理中有潛力,但仍需進一步改進。 PubMed DOI

這項研究評估了六種大型語言模型(LLMs)在回答牙科多選題的表現,分析了1490道來自美國國家牙科考試的題目。測試的模型包括ChatGPT 4.0 omni、Gemini Advanced 1.5 Pro等。結果顯示,Copilot(85.5%)、Claude(84.0%)和ChatGPT(83.8%)的準確性最佳。雖然這些模型在文字型問題上表現良好,但在影像型問題上則較弱。研究建議牙科專業人士和學生應使用更新的模型,以提升教育和臨床需求的滿足。 PubMed DOI

這項研究比較了大型語言模型(LLMs)與人類腸胃科醫生在挑戰性腸胃病例中的診斷能力。研究分析了67個病例,發現LLM Claude 3.5 Sonnet的準確率達76.1%,明顯高於腸胃科醫生的45.5%。這顯示先進的LLMs能成為腸胃科醫生的有力工具,提供高效且具成本效益的診斷支持。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)——ChatGPT-3.5、ChatGPT-4 和 Gemini,針對磨牙症的資訊提供效果。研究發現: 1. **可讀性**:三個模型的可讀性相似,但 Gemini 的回應對一般讀者來說更易懂。 2. **準確性**:GPT-3.5 的準確率最高,為 68.33%,GPT-4 為 65%,Gemini 則為 55%,三者差異不大。 3. **一致性**:所有模型在不同時間的回應一致性高,GPT-3.5 最高,達 95%。 總結來說,這些模型雖然表現中等,但不應取代專業牙科建議。 PubMed DOI

這項研究評估了六個大型語言模型(LLMs)在兒童牙科的有效性,包括Google的Gemini、OpenAI的ChatGPT系列和微軟的Copilot。研究者提出十個臨床問題,並由兩位評估者根據0到10的標準進行評分。結果顯示,ChatGPT-4得分最高(8.08),其次是Gemini Advanced(8.06)和ChatGPT-4o(8.01)。雖然LLMs在支持兒童牙科方面有潛力,但專業人員應批判性地使用這些工具,並不應完全依賴。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在回答植牙相關臨床問題的表現,特別是針對周圍植體疾病。研究者向ChatGPT 4.0、Google Gemini、Google Gemini Advanced和Microsoft Copilot提出十個問題,並由兩位牙周病專家根據全面性、科學準確性、清晰度和相關性進行評分。結果顯示,Google Gemini Advanced表現最佳,而Google Gemini得分最低,兩者之間有顯著差異(P=.005)。研究強調牙科專業人員在使用LLMs獲取臨床資訊時需謹慎,因為這些模型無法取代專業知識。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在牙植體問題上的表現,包括 ChatGPT-4.0、Gemini Pro 1.5(0801)、Claude 3 Opus 和 Qwen 2.0 72B。目的是幫助資源不足地區的醫生選擇最有效的模型,以提升牙科護理的可及性。結果顯示,ChatGPT-4.0 在簡單和複雜問題上表現最佳,Gemini Pro 1.5(0801) 在簡單問題上表現良好,但複雜問題不穩定。Qwen 2.0 72B 在特定案例上表現不錯,但變異性大,而 Claude 3 Opus 表現最差。建議使用多個模型組合以增強醫療決策能力。 PubMed DOI

這項研究顯示大型語言模型(LLMs)在診斷罕見疾病方面的潛力,因為這些疾病因發病率低且表現多樣而難以識別。研究分析了152個來自中國醫學案例資料庫的案例,並比較了四個LLMs(ChatGPT-4o、Claude 3.5 Sonnet、Gemini Advanced和Llama 3.1 405B)與人類醫師的診斷準確性。結果顯示,LLMs的表現超越人類醫師,Claude 3.5 Sonnet的準確率達78.9%,而人類醫師僅26.3%。這顯示LLMs在臨床上可能成為有價值的工具,但在實際應用前仍需進一步驗證及考量倫理與隱私問題。 PubMed DOI

這項研究評估了五種大型語言模型(LLMs)在回答緊急牙科創傷問題的可靠性,依據國際牙科創傷學會的指導方針進行。研究結果顯示,ChatGPT 3.5的正確回答率最高(76.7%),其次是Copilot Pro(73.3%)和Copilot Free(70%)。雖然整體成功率差異不大,但Copilot和Gemini經常提供不準確的解釋,且缺乏可靠的參考資料。因此,雖然LLMs在牙科教育上有潛力,但在實踐中需謹慎使用。 PubMed DOI

研究發現,ChatGPT在診斷50個口腔病灶案例時,準確度和專業醫師差不多,表現比Microsoft Copilot好。兩種AI都有潛力協助牙醫臨床診斷,尤其是ChatGPT表現最突出。 PubMed DOI