原始文章

這項研究評估了ChatGPT 3.5和4.0在提供創傷性牙齒損傷資訊上的表現,針對40個問題進行分析。主要發現包括:ChatGPT 3.5的原創回應較多,且可讀性稍好(FRES得分39.732),而4.0在定義和診斷的質量上表現較佳。雖然兩者在可讀性和可靠性上有挑戰,但仍提供高質量資訊,建議作為牙科教育的輔助資源。 PubMed DOI


站上相關主題文章列表

這項研究比較了ChatGPT-3.5和ChatGPT-4在口腔及顏面疾病鑑別診斷的表現,並與牙科專業人士的結果進行對照。研究中呈現了37個病變案例,結果顯示ChatGPT-4的準確率為80.18%,高於ChatGPT-3.5的64.86%,但仍低於專家的86.64%。兩者在診斷一致性方面表現中等,且受案例描述質量影響。總體而言,ChatGPT-4在某些情況下能達到專家水準,但作為臨床工具的有效性仍需依賴精確的案例資料。 PubMed DOI

最近,OpenAI的ChatGPT在醫療和教育領域的應用引起關注。一項研究評估了ChatGPT在牙科考試中的表現,發現其在知識性問題上達到80%的準確率,尤其是ChatGPT 4在牙科入學考試中表現優異,知識性問題準確率高達94%。雖然在數學分析方面表現不佳,但整體來看,ChatGPT有潛力提升牙科教育和實踐,特別是在特定領域的進一步改進上。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在牙科學生對牙周手術知識的有效性,共有134名學生參加。結果顯示,ChatGPT-3.5的平均回應時間為3.63秒,準確度得分21.51分;而ChatGPT-4的回應時間較長,為12.49秒,得分20分。雖然兩者的準確性未達學生水平,但ChatGPT-4的開放式回答與教師評估一致,顯示其在學生學習及臨床評估中的潛力。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI

顏面外科創傷在急診科常見,對未受過專業訓練的醫師來說是一大挑戰,可能導致轉診增加及會診壓力。近期研究評估了ChatGPT在診斷和管理顏面外科創傷的有效性,並與整形外科住院醫師的回應進行比較。結果顯示,ChatGPT在診斷準確性上表現優於住院醫師,但在管理建議方面則較弱。總體而言,ChatGPT在急診環境中可作為診斷輔助工具,但在治療計畫上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在口腔外科、預防牙科和口腔癌領域提供的資訊質量。專家設計了50個問題,結果顯示ChatGPT在預防牙科方面表現最佳,得分4.3(滿分5),能有效傳達複雜資訊。但在口腔外科(3.9)和口腔癌(3.6)方面得分較低,顯示在術後指導和個性化建議上有不足。研究強調在使用AI資訊時需有專業監督,並持續評估AI的能力,以確保病人護理的負責任使用。 PubMed DOI

這項研究評估了ChatGPT在提供兒童牙科資訊的有效性,重點在病患和家長的教育。研究中提出60個問題,涵蓋牙齒創傷、氟化物及口腔健康。結果顯示,對於病患/家長的回應平均質量為4.3,而學術問題則為3.7,顯示質量有明顯差異。牙齒創傷的學術問題得分最低。雖然ChatGPT能提供質量資訊,但對於可讀性仍有挑戰,建議進一步改進以增強與使用者的互動。 PubMed DOI

這項研究評估了六款人工智慧應用程式在回答脫落牙齒緊急處理問題的表現。測試的應用程式包括不同版本的ChatGPT、Perplexity、Gemini和Copilot。結果顯示,ChatGPT 4.0的準確率最高,達95.6%,而Perplexity最低,僅67.2%。除了ChatGPT 4.0外,其他聊天機器人都不夠可靠。研究建議將國際牙科外傷學會的指導方針納入聊天機器人的資料庫,以提升準確性和可靠性。 PubMed DOI

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI

這項研究評估了五種大型語言模型(LLMs)在回答緊急牙科創傷問題的可靠性,依據國際牙科創傷學會的指導方針進行。研究結果顯示,ChatGPT 3.5的正確回答率最高(76.7%),其次是Copilot Pro(73.3%)和Copilot Free(70%)。雖然整體成功率差異不大,但Copilot和Gemini經常提供不準確的解釋,且缺乏可靠的參考資料。因此,雖然LLMs在牙科教育上有潛力,但在實踐中需謹慎使用。 PubMed DOI