原始文章

這項研究評估了Scholar GPT在口腔及顏面外科技術問題上的表現,並與ChatGPT進行比較。共評估60個問題,涵蓋阻生牙、牙齒植體等主題。結果顯示,Scholar GPT的全球質量評分平均為4.48,明顯高於ChatGPT的3.1,且提供的回應更一致且高品質。研究建議,利用學術資料庫的GPT模型能產生更準確的信息,並建議開發專門針對口腔及顏面外科的模型,以提升AI生成內容的質量。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT提供的口腔顎面外科資訊的可用性。研究者向ChatGPT提問有關患者資訊和教育內容的問題。外科醫生評估了回答,結果顯示在患者資訊方面的品質較教育內容高。ChatGPT在提供患者資訊方面具有潛力,但在培訓用途上則建議謹慎使用。 PubMed DOI

研究發現ChatGPT在回答開放性問題時表現不錯,但對封閉性問題有些不準確。在臨床情境中提供正確診斷,但手術程序方面缺乏完整性。雖然在處理複雜情境上有潛力,但在頭頸外科決策方面仍有改進空間。 PubMed DOI

ChatGPT-4在口腔外科上表現不錯,但僅準確率71.7%,應視為輔助而非取代。未來需透過專家監督及深入研究,才能安全有效地整合人工智慧於口腔外科決策中。 PubMed DOI

這項研究測試了不同大型語言模型在回答口腔顎面外科多重選擇題時的準確度。這些模型的平均得分為62.5%,其中GPT-4表現最佳,達到76.8%。在各種問題類別中,模型的表現存在顯著差異。雖然這些模型在教學上可能有幫助,但在臨床決策之前,建議應謹慎使用,直到進一步發展和驗證。 PubMed DOI

這項研究比較了ChatGPT-3.5和ChatGPT-4在口腔及顏面疾病鑑別診斷的表現,並與牙科專業人士的結果進行對照。研究中呈現了37個病變案例,結果顯示ChatGPT-4的準確率為80.18%,高於ChatGPT-3.5的64.86%,但仍低於專家的86.64%。兩者在診斷一致性方面表現中等,且受案例描述質量影響。總體而言,ChatGPT-4在某些情況下能達到專家水準,但作為臨床工具的有效性仍需依賴精確的案例資料。 PubMed DOI

這項研究評估了ChatGPT在顱面臨床案例中的表現,並與專業人士進行比較。研究中提出38個案例,結果顯示專業人士的表現明顯優於ChatGPT,AIPI分數分別為18.71和16.39(p<0.001)。專家指出,ChatGPT在診斷、治療及考量患者數據方面表現不佳,且對額外檢查的建議也不夠充分。總體而言,ChatGPT在顱面臨床案例中的效率較低,需改進。 PubMed DOI

這項研究評估了ChatGPT Plus在口腔與顏面外科的回應效果,於Ege大學進行,涵蓋66個問題,依難易度分為簡單、中等和困難,主題包括牙科麻醉和拔牙。研究者使用7分制評分,結果顯示中位數準確性得分為5,75%的回應得分4以上;中位數品質得分為4,75%的回應得分3以上。不同難度的問題得分有顯著差異,較困難的問題得分較低。總體來看,ChatGPT Plus在簡單問題上表現良好,但對於需要詳細答案的問題則較弱。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在牙科學生對牙周手術知識的有效性,共有134名學生參加。結果顯示,ChatGPT-3.5的平均回應時間為3.63秒,準確度得分21.51分;而ChatGPT-4的回應時間較長,為12.49秒,得分20分。雖然兩者的準確性未達學生水平,但ChatGPT-4的開放式回答與教師評估一致,顯示其在學生學習及臨床評估中的潛力。 PubMed DOI

這項研究比較了ChatGPT-3.5、ChatGPT-4和Google Gemini在正顎手術問題上的回應可靠性,使用定量分析方法。研究團隊設計了64個問題的問卷,並由兩位專家評估這三個AI的回應。結果顯示,雖然ChatGPT-3.5的可靠性得分最高,但三者表現相似。特別是Google Gemini在提供醫生建議和圖形元素方面表現優異,這在其他兩者中並未出現。研究建議未來需進一步評估AI在醫療領域的能力。 PubMed DOI

顏面外科創傷在急診科常見,對未受過專業訓練的醫師來說是一大挑戰,可能導致轉診增加及會診壓力。近期研究評估了ChatGPT在診斷和管理顏面外科創傷的有效性,並與整形外科住院醫師的回應進行比較。結果顯示,ChatGPT在診斷準確性上表現優於住院醫師,但在管理建議方面則較弱。總體而言,ChatGPT在急診環境中可作為診斷輔助工具,但在治療計畫上仍需改進。 PubMed DOI