原始文章

這項研究發現,不同的提問方式會影響GPT回答牙科植體問題的品質。雖然所有模型都能給出不錯的答案,但用情境化提示時,治療相關問題的回答較不清楚、相關性也較低,不過引用資料的表現較佳。整體來說,GPT能提供實用資訊,但提問設計還有改進空間。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款AI聊天機器人(ChatGPT-3.5、ChatGPT-4和Google Gemini)在提供牙科植牙資訊的可靠性與實用性。研究提出75個相關問題,並由兩位專家評估回答。結果顯示,Google Gemini在可靠性和實用性上表現最佳,特別是在建議諮詢牙科專家方面,對98.7%的問題都有建議。相比之下,ChatGPT-4和ChatGPT-3.5的建議比例較低。整體而言,雖然三者皆具可接受的表現,但Google Gemini因其與專家建議的一致性而更為突出。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在回答植牙相關臨床問題的表現,特別是針對周圍植體疾病。研究者向ChatGPT 4.0、Google Gemini、Google Gemini Advanced和Microsoft Copilot提出十個問題,並由兩位牙周病專家根據全面性、科學準確性、清晰度和相關性進行評分。結果顯示,Google Gemini Advanced表現最佳,而Google Gemini得分最低,兩者之間有顯著差異(P=.005)。研究強調牙科專業人員在使用LLMs獲取臨床資訊時需謹慎,因為這些模型無法取代專業知識。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在牙植體問題上的表現,包括 ChatGPT-4.0、Gemini Pro 1.5(0801)、Claude 3 Opus 和 Qwen 2.0 72B。目的是幫助資源不足地區的醫生選擇最有效的模型,以提升牙科護理的可及性。結果顯示,ChatGPT-4.0 在簡單和複雜問題上表現最佳,Gemini Pro 1.5(0801) 在簡單問題上表現良好,但複雜問題不穩定。Qwen 2.0 72B 在特定案例上表現不錯,但變異性大,而 Claude 3 Opus 表現最差。建議使用多個模型組合以增強醫療決策能力。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI

這項研究比較兩款大型語言模型在回答口腔顏面裂相關問題時的表現。結果發現,Deepseek-R1在準確性、清晰度、相關性和可信度上表現較佳,但GPT o1-preview在展現同理心方面較突出。兩者各有優勢,未來醫療用AI應結合準確性與同理心,才能提供更完善的病患諮詢服務。 PubMed DOI

這項研究比較 GPT-3.5、GPT-4、Google Gemini 和 Claude 3 Opus 四款主流大型語言模型,針對全膝關節置換手術常見病人問題的回答表現。結果發現,ChatGPT-4 在加入「資深骨科醫師」角色扮演提示後,正確性、完整性和可接受性都表現最佳。角色扮演提示能明顯提升 ChatGPT 系列的回答品質,但對 Gemini 和 Claude 幫助不大。整體來說,LLM 對骨科衛教有幫助,但偶爾還是會有錯誤資訊。 PubMed DOI

這項研究比較了 Ernie Bot、ChatGPT 和 Gemini 三款 AI 對成人牙齒矯正常見問題的回答表現。結果發現,三者在正確性、清楚度和同理心等六項指標上,大多只拿到中等分數,很少有滿分。雖然 AI 可以輔助解答,但建議還是要有專業醫師把關,未來在正確性和病患照護上還有進步空間。 PubMed DOI

這項研究發現,向ChatGPT-4提出具體問題,比起一般性問題,能得到更可靠且一致的牙科假牙相關答案。不過,雖然具體提問有助提升表現,ChatGPT的答案還是無法完全取代專業判斷,建議仍需專業人員把關。設計明確的問題,有助提升AI在牙科領域的實用性。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI