原始文章

這項研究探討了ChatGPT在口腔與顏面外科考試中對牙科本科生的自動化作文評分(AES)可靠性,並與人類評估者進行比較。69名新加坡國立大學的學生參加了考試,結果顯示第一道題目的AES與人類評分有強相關性,而第二道題目則中等相關。評分者之間的一致性和可靠性都很高。研究指出,ChatGPT在作文評分上有潛力,但設計有效的評分標準對於提升可靠性非常重要。隨著進一步驗證,ChatGPT可望協助自我評估及自動化評分。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在大學牙科學生的醫療教育中表現良好,對各種評估問題有準確回答,但處理圖像問題有限制且有字數限制。建議教育工作者調整教學方法,善用人工智慧技術提升虛擬學習,同時解決相關問題。 PubMed DOI

研究發現ChatGPT在牙科知識評估中表現,ChatGPT3.5比ChatGPT4更準確。建議牙科學生將ChatGPT當作輔助學習工具,而非主要來源,以免誤導。 PubMed DOI

研究發現,ChatGPT在醫學生簡答評估中表現優於低分同學,但不及歷史平均水準。對於困難學生的干預仍有疑慮,需要進一步探討ChatGPT在高認知推理評估中的表現。 PubMed DOI

研究發現ChatGPT在回答根管治療問題上表現一致但不夠準確,尤其對簡單問題。雖然還無法取代牙醫,但透過深度學習提升表現或許有潛力。持續評估是必要的,以確保在臨床應用上的可靠性。 PubMed DOI

ChatGPT是醫學生的好幫手,但回答可能不完全正確,需小心。研究發現,ChatGPT3.5和ChatGPT4在牙周病學問題上的正確率分別為58%和74%。雖然ChatGPT4表現較佳,仍可能有誤差。使用者應該謹慎,需另外驗證ChatGPT提供的資訊。 PubMed DOI

研究比較了ChatGPT 3.5和4.0在回答牙科執照考試問題時的表現,發現4.0版本更準確,尤其對美國和英國考試問題回答得更好。這顯示GenAI在牙科領域有潛力,但仍需進一步改進,且應視情況而定。在牙科領域應用GenAI可能會影響牙醫與患者的溝通和專業培訓。 PubMed DOI

研究評估了ChatGPT在回答有關可拆卸式牙科假牙(RDPs)和固定式牙科假牙(FDPs)的問題時的表現。30個問題,每個問題有30個答案,專家評分後發現可靠性有限。結論指出ChatGPT在回答RDPs和FDPs問題上能力有限,不能取代牙醫,專業人士應謹慎對待其限制。 PubMed DOI

研究發現大學教師通常能分辨學生和ChatGPT生成的反思,且對反思主題分析沒有太大差異。儘管意見有些不同,但結果顯示ChatGPT在牙科教育和研究上有應用潛力。 PubMed DOI

這項研究評估了ChatGPT在正畸領域的資訊可靠性,涵蓋透明矯正器、舌側矯正、美觀牙套和顳顎關節障礙。結果顯示,患者對資訊的評價普遍較高,尤其在透明矯正器和顳顎關節障礙方面,患者的DISCERN分數明顯高於學生和正畸醫師。整體而言,ChatGPT在患者教育上展現潛力,但仍需進一步改進以提升其可靠性和相關性。 PubMed DOI

這項研究探討了ChatGPT 3.5在回答牙科問題的準確性和完整性。十位專家提出30個問題,並用李克特量表評估ChatGPT的回答。結果顯示,雖然ChatGPT的準確性(中位數5.50)和完整性(中位數2.00)表現不錯,但仍有改進空間。經過重新評估後,其表現顯著提升,顯示機器學習的潛力。不過,研究也指出仍有不準確之處,特別是參考資料,強調人類判斷在臨床決策中的重要性,以及基於證據的醫療實踐的必要性。 PubMed DOI