原始文章

這項研究探討如何利用Python腳本在Blender中管理3D牙科數據,特別是簡化和壓縮STL檔案。分析了十個來自不同影像技術的STL模型,並使用GOM Inspect評估檔案大小、準確性和處理時間。主要發現包括:檔案大小顯著減少(p<0.001),準確性無顯著差異,偏差在0.0 µm到6.8 µm之間,且所有模型精確度完美。處理時間與檔案大小成正比。總體而言,這種方法有效減少檔案大小並提高處理效率,且不影響準確性。 PubMed DOI


站上相關主題文章列表

這研究指出人工智慧(AI)在醫療保健領域的重要性,特別是大型語言模型(LLMs)在牙科護理中的應用。比較了嵌入式GPT模型和ChatGPT-3.5 turbo在應對患者問題和協助牙科決策的效果。結果顯示,嵌入式GPT模型在回答問題的準確性和清晰度方面優於ChatGPT,兩者在相關性和知識更新方面同樣有效。這研究顯示,嵌入GPT模型有助於提升牙科護理品質,AI在醫療領域前景看好。 PubMed DOI

這篇文章探討如何在牙科領域整合ChatGPT,一個先進的對話人工智慧模型,可以如何造福牙科專業人士。ChatGPT可以增強患者參與度,在牙科教育中提供互動式學習,協助研究分析,並支援牙醫提供基於證據的建議。然而,負責任的實施必須解決道德考量、準確性和隱私問題。 PubMed DOI

這項研究評估了ChatGPT在正畸領域的資訊可靠性,涵蓋透明矯正器、舌側矯正、美觀牙套和顳顎關節障礙。結果顯示,患者對資訊的評價普遍較高,尤其在透明矯正器和顳顎關節障礙方面,患者的DISCERN分數明顯高於學生和正畸醫師。整體而言,ChatGPT在患者教育上展現潛力,但仍需進一步改進以提升其可靠性和相關性。 PubMed DOI

這項研究分析了五種大型語言模型(LLMs)在識別顱面外科手術的CPT代碼的有效性,包括Perplexity.AI、Bard、BingAI、ChatGPT 3.5和ChatGPT 4.0。由於CPT編碼複雜且耗時,尤其在專業編碼人員短缺的情況下,研究旨在評估這些AI模型的效率和準確性。結果顯示,雖然整體準確性差異不大,但ChatGPT 4.0在複雜代碼上表現較佳,而Perplexity.AI和Bard在簡單代碼上更可靠。研究建議這些AI可減輕手動編碼負擔,並提升CPT編碼的資源效率,支持將其整合進臨床流程。 PubMed DOI

**引言** 隨著人工智慧的發展,大型語言模型(LLMs)在牙科領域的應用逐漸受到重視。這些模型能生成類似人類的文本,潛在地提升臨床實踐和病人教育,但其準確性對病人護理至關重要。 **目的** 本研究首次評估不同LLMs的牙科知識,透過分析它們對全國牙科考試(INBDE)問題的回答準確性。 **方法** 我們測試了多個閉源和開源的LLMs,針對「病人箱」風格的問題及傳統多選題進行評估。 **結果** ChatGPT-4的準確率最高,達75.88%;Claude-2.1為66.38%;Mistral-Medium則為54.77%。模型間的表現差異顯著。 **結論** 研究顯示LLMs在牙科的潛力,並強調選擇合適模型的重要性,但在臨床應用前仍需克服一些挑戰。 PubMed DOI

這項研究比較了ChatGPT 3.5和Google Bard在牙科教育中的表現。研究設計了七個問題來評估這些模型的能力,包括創建練習和模擬牙科問題。結果顯示,ChatGPT 3.5在創建相關練習和評估工具方面表現較佳,而Bard在檢索和批評研究文章上更為出色。研究強調了生成語言模型在增強牙科教育的潛力,但也指出了模型表現的差異,建議對基於證據的內容生成進行針對性訓練,並提醒教育者在依賴AI進行重要決策時要謹慎。 PubMed DOI

生成式人工智慧(GenAI)工具如ChatGPT在牙科教育中越來越重要,尤其在個性化學習和臨床推理方面。然而,牙科機構對這些工具的使用缺乏具體指導。為了解決這個問題,進行了一項範疇回顧,分析來自21所大學和三個國際組織的31份文件,探討GenAI的應用、好處及挑戰。雖然強調了倫理使用和學術誠信的重要性,但並未找到針對牙科教育的具體指導,這為未來制定量身定制的建議提供了機會。 PubMed DOI

這項研究探討了先進的人工智慧演算法及大型語言模型(LLMs),特別是OpenAI的ChatGPT,對牙科診斷的影響。透過公開數據集,這些模型提升了醫療專業人員的診斷能力,改善了患者與醫療提供者的溝通,並提高了臨床效率。ChatGPT-4的推出預期將對口腔外科產生重大影響。本文回顧了LLMs在牙科診斷的應用,並提出未來研究方向,評估人工智慧在醫療領域的潛力與挑戰。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4與Microsoft Copilot在提供3D列印矯正器具資訊的表現,重點在準確性、完整性和回應時間。研究分為五個階段,最終確定105個問題進行測試。結果顯示,ChatGPT-4在準確性和完整性上均優於Copilot,且兩者在評估一致性上幾乎沒有相關性。雖然回應時間無顯著差異,但ChatGPT-4在解答複雜問題上表現更佳。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在牙植體問題上的表現,包括 ChatGPT-4.0、Gemini Pro 1.5(0801)、Claude 3 Opus 和 Qwen 2.0 72B。目的是幫助資源不足地區的醫生選擇最有效的模型,以提升牙科護理的可及性。結果顯示,ChatGPT-4.0 在簡單和複雜問題上表現最佳,Gemini Pro 1.5(0801) 在簡單問題上表現良好,但複雜問題不穩定。Qwen 2.0 72B 在特定案例上表現不錯,但變異性大,而 Claude 3 Opus 表現最差。建議使用多個模型組合以增強醫療決策能力。 PubMed DOI