原始文章

這項研究評估了ChatGPT對氟攝取流行病學問題的理解及其提出新假說的能力。研究設計了一系列問題,結果顯示ChatGPT在氟對公共健康影響的基本知識上表現優秀,12個流行病學問題中有8個評為優秀,4個為良好。對於氟的影響描述也相當全面,6個為優秀,2個為良好。此外,ChatGPT提出了8個與氟相關的疾病假說,其中4個被認為新穎且可行。研究結果顯示,人工智慧能協助健康專業人員理解氟相關疾病。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在大學牙科學生的醫療教育中表現良好,對各種評估問題有準確回答,但處理圖像問題有限制且有字數限制。建議教育工作者調整教學方法,善用人工智慧技術提升虛擬學習,同時解決相關問題。 PubMed DOI

ChatGPT是醫學生的好幫手,但回答可能不完全正確,需小心。研究發現,ChatGPT3.5和ChatGPT4在牙周病學問題上的正確率分別為58%和74%。雖然ChatGPT4表現較佳,仍可能有誤差。使用者應該謹慎,需另外驗證ChatGPT提供的資訊。 PubMed DOI

研究指出,ChatGPT回答骨質疏鬆症問題表現不佳,需要高度教育才能理解。儘管人工智慧廣泛應用在健康資訊,資訊準確性和易懂性同樣重要。研究發現ChatGPT回答骨質疏鬆症問題品質差且難懂。雖然ChatGPT提供方便資訊,但骨質疏鬆症內容未達醫療標準。 PubMed DOI

研究比較了ChatGPT-4對FDA有關牙齒汞齊的回應,發現ChatGPT-4通常提供準確且最新的資訊,雖然有些微差異。未來需進一步研究評估ChatGPT-4在不同主題上的可靠性和效果。 PubMed DOI

這項研究探討了ChatGPT 3.5在回答牙科問題的準確性和完整性。十位專家提出30個問題,並用李克特量表評估ChatGPT的回答。結果顯示,雖然ChatGPT的準確性(中位數5.50)和完整性(中位數2.00)表現不錯,但仍有改進空間。經過重新評估後,其表現顯著提升,顯示機器學習的潛力。不過,研究也指出仍有不準確之處,特別是參考資料,強調人類判斷在臨床決策中的重要性,以及基於證據的醫療實踐的必要性。 PubMed DOI

最近,OpenAI的ChatGPT在醫療和教育領域的應用引起關注。一項研究評估了ChatGPT在牙科考試中的表現,發現其在知識性問題上達到80%的準確率,尤其是ChatGPT 4在牙科入學考試中表現優異,知識性問題準確率高達94%。雖然在數學分析方面表現不佳,但整體來看,ChatGPT有潛力提升牙科教育和實踐,特別是在特定領域的進一步改進上。 PubMed DOI

這項研究評估了ChatGPT在口腔外科、預防牙科和口腔癌領域提供的資訊質量。專家設計了50個問題,結果顯示ChatGPT在預防牙科方面表現最佳,得分4.3(滿分5),能有效傳達複雜資訊。但在口腔外科(3.9)和口腔癌(3.6)方面得分較低,顯示在術後指導和個性化建議上有不足。研究強調在使用AI資訊時需有專業監督,並持續評估AI的能力,以確保病人護理的負責任使用。 PubMed DOI

這項研究評估了AI模型ChatGPT在提供有關哮喘的資訊準確性。醫療專業人員針對成人哮喘知識問卷評估其表現。結果顯示,ChatGPT在病因學和病理生理學方面表現優異,準確率達100%;但在藥物資訊方面僅有70%的準確率,與藥物相關的回答更低,只有30%。雖然ChatGPT在資訊一致性上表現良好,但在藥物資訊上仍需改進,顯示其作為哮喘教育工具的潛力。 PubMed DOI

隨著微塑料對健康影響的關注增加,對高品質數據的需求也隨之上升。目前的質量保證和控制(QA/QC)框架因手動評估耗時且不一致而面臨挑戰。本研究探討利用人工智慧(AI),特別是大型語言模型(LLMs),如ChatGPT和Gemini,來提升微塑料研究中的QA/QC過程。研究結果顯示,AI能有效提取信息並評估研究可靠性,顯示出在環境科學中標準化微塑料風險評估的潛力。 PubMed DOI

人工智慧(AI)正在改變牙科領域,特別是ChatGPT等工具在診斷和治療計畫中展現潛力。本研究調查了384名印度馬哈拉施特拉邦的牙科學生和教職員對ChatGPT的認知與使用情況。結果顯示,87.2%的受訪者認識到ChatGPT的AI特性,研究生對其知識和使用意願較高,但教職員對數據隱私的擔憂更重。為了更好地整合AI於牙科教育,需開發針對性的培訓計畫。 PubMed DOI