原始文章

這項研究評估了Scholar GPT在口腔及顏面外科技術問題上的表現,並與ChatGPT進行比較。共評估60個問題,涵蓋阻生牙、牙齒植體等主題。結果顯示,Scholar GPT的全球質量評分平均為4.48,明顯高於ChatGPT的3.1,且提供的回應更一致且高品質。研究建議,利用學術資料庫的GPT模型能產生更準確的信息,並建議開發專門針對口腔及顏面外科的模型,以提升AI生成內容的質量。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT提供的口腔顎面外科資訊的可用性。研究者向ChatGPT提問有關患者資訊和教育內容的問題。外科醫生評估了回答,結果顯示在患者資訊方面的品質較教育內容高。ChatGPT在提供患者資訊方面具有潛力,但在培訓用途上則建議謹慎使用。 PubMed DOI

這項研究測試了不同大型語言模型在回答口腔顎面外科多重選擇題時的準確度。這些模型的平均得分為62.5%,其中GPT-4表現最佳,達到76.8%。在各種問題類別中,模型的表現存在顯著差異。雖然這些模型在教學上可能有幫助,但在臨床決策之前,建議應謹慎使用,直到進一步發展和驗證。 PubMed DOI

這項研究評估了ChatGPT在顱面臨床案例中的表現,並與專業人士進行比較。研究中提出38個案例,結果顯示專業人士的表現明顯優於ChatGPT,AIPI分數分別為18.71和16.39(p<0.001)。專家指出,ChatGPT在診斷、治療及考量患者數據方面表現不佳,且對額外檢查的建議也不夠充分。總體而言,ChatGPT在顱面臨床案例中的效率較低,需改進。 PubMed DOI

這項研究評估了ChatGPT Plus在口腔與顏面外科的回應效果,於Ege大學進行,涵蓋66個問題,依難易度分為簡單、中等和困難,主題包括牙科麻醉和拔牙。研究者使用7分制評分,結果顯示中位數準確性得分為5,75%的回應得分4以上;中位數品質得分為4,75%的回應得分3以上。不同難度的問題得分有顯著差異,較困難的問題得分較低。總體來看,ChatGPT Plus在簡單問題上表現良好,但對於需要詳細答案的問題則較弱。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在牙科學生對牙周手術知識的有效性,共有134名學生參加。結果顯示,ChatGPT-3.5的平均回應時間為3.63秒,準確度得分21.51分;而ChatGPT-4的回應時間較長,為12.49秒,得分20分。雖然兩者的準確性未達學生水平,但ChatGPT-4的開放式回答與教師評估一致,顯示其在學生學習及臨床評估中的潛力。 PubMed DOI

這項研究比較了ChatGPT-3.5、ChatGPT-4和Google Gemini在正顎手術問題上的回應可靠性,使用定量分析方法。研究團隊設計了64個問題的問卷,並由兩位專家評估這三個AI的回應。結果顯示,雖然ChatGPT-3.5的可靠性得分最高,但三者表現相似。特別是Google Gemini在提供醫生建議和圖形元素方面表現優異,這在其他兩者中並未出現。研究建議未來需進一步評估AI在醫療領域的能力。 PubMed DOI

顏面外科創傷在急診科常見,對未受過專業訓練的醫師來說是一大挑戰,可能導致轉診增加及會診壓力。近期研究評估了ChatGPT在診斷和管理顏面外科創傷的有效性,並與整形外科住院醫師的回應進行比較。結果顯示,ChatGPT在診斷準確性上表現優於住院醫師,但在管理建議方面則較弱。總體而言,ChatGPT在急診環境中可作為診斷輔助工具,但在治療計畫上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在口腔外科、預防牙科和口腔癌領域提供的資訊質量。專家設計了50個問題,結果顯示ChatGPT在預防牙科方面表現最佳,得分4.3(滿分5),能有效傳達複雜資訊。但在口腔外科(3.9)和口腔癌(3.6)方面得分較低,顯示在術後指導和個性化建議上有不足。研究強調在使用AI資訊時需有專業監督,並持續評估AI的能力,以確保病人護理的負責任使用。 PubMed DOI

這項研究評估了四種大型語言模型(LLMs)在口腔與顏面外科(OMS)考試問題上的表現,使用了714個問題。結果顯示,GPT-4o的準確率最高,達83.69%,明顯優於Gemini(66.85%)、GPT-3.5(64.83%)和Copilot(62.18%)。此外,GPT-4o在修正錯誤方面也表現優異,修正率高達98.2%。這些結果顯示,GPT-4o在OMS教育中具有潛力,但不同主題的表現差異顯示出進一步精煉和評估的必要性。 PubMed DOI

這項研究探討了ChatGPT-4在回答口腔及顏面外科疾病問題的有效性,這些疾病影響全球約35億人。研究使用思維鏈(CoT)方法,評估其在提升公眾對疾病預防和早期檢測認識的表現。專家從全國牙醫執照考試中選取了130道開放式問題和1,805道選擇題。結果顯示,CoT方法顯著提升了ChatGPT-4在開放式問題的準確性和整體表現,選擇題準確性也提高了3.1%。研究強調,ChatGPT-4不應取代醫療專業人員。 PubMed DOI