原始文章

人工智慧(AI)在醫療領域的應用對醫學實踐影響深遠,尤其在教育、診斷和治療方面。本研究評估了OpenAI的ChatGPT在卡塔爾急診醫學住院醫師考試中的表現,並與住院醫師的成績進行比較。結果顯示,ChatGPT在所有考試類別中均表現優於住院醫師,但高年級住院醫師的及格率卻下降,顯示考試成績與實際技能之間的脫節,可能與COVID-19疫情對教育的影響有關。總體而言,ChatGPT在急診醫學領域展現出強大的理論知識,顯示其作為醫學教育輔助工具的潛力。 PubMed DOI


站上相關主題文章列表

研究評估了ChatGPT在過去5次醫學專業考試中的表現,分析了成功率和排名。ChatGPT回答各種問題,成功率不同,排名從第1787名到第4428名。在短問題和單選多選擇題上表現較佳,但仍落後於人類專家。研究引起對ChatGPT在醫療服務潛力的好奇。 PubMed DOI

研究發現ChatGPT-4在回答沙特醫師執照考試問題方面整體準確率為88.6%,對簡單和一般問題表現不錯,但困難問題較差。在各醫學學科上表現一致,但某些問題類別仍需改進。ChatGPT-4在醫學教育有潛力,但需進一步研究以提升處理複雜臨床問題的能力。 PubMed DOI

研究比較了日本住院醫師和 GPT-4 在使用 GM-ITE 考題時的臨床能力。結果顯示,GPT-4 在特定疾病、婦產科和內科方面表現較好,但在醫學訪談、一般實踐和精神科方面表現較差。GPT-4 在困難問題上表現較佳,但在簡單問題上表現較差。年度比較也呈現不同結果。這些發現揭示了人工智慧在醫學教育和實踐中的優勢和限制。 PubMed DOI

研究評估了ChatGPT 3.5在印度大學醫學本科社區醫學考試的表現。結果顯示,ChatGPT在回答考題時展現出色的相關性、連貫性和完整性。儘管在醫學教育上有潛力,但仍需進一步探討其可靠性和應用價值,才能廣泛運用。 PubMed DOI

這項研究評估了ChatGPT-3.5在肺病學考試中的表現,並與三年級醫學生進行比較。研究分為兩組:244名法語醫學生和ChatGPT,後者以無上下文(V1)和有上下文(V2)兩種格式測試。結果顯示,V1在放射學和胸外科表現佳,但在病理學和藥理學上不理想;V2則在所有類別中表現更準確,並在開放式問題上優於學生。V2通過考試的比例超過62.1%,而V1未能通過。總體而言,ChatGPT的表現與醫學生相似,受問題格式和複雜度影響,尤其在需要臨床判斷的任務上表現不佳。 PubMed DOI

這項研究回顧了ChatGPT在醫學執照考試的表現,分析了2022年1月到2024年3月間的45項研究。結果顯示,GPT-4的準確率達81%,優於GPT-3.5的58%。GPT-4在29項考試中通過26項,並在17個案例中超越醫學生。雖然翻譯問題提升了GPT-3.5的表現,但對GPT-4無影響。兩者在問題類型上表現不同,GPT-3.5在短文本問題上較佳,而開放式問題則都面臨挑戰。研究強調了GPT-4在醫學教育的潛力,但也指出準確性不一致及各國知識差異的挑戰,旨在提供教育者和政策制定者相關資訊。 PubMed DOI

這項研究探討了ChatGPT在2021至2023年間進行的進步測試中回答醫學問題的表現。研究人員將測試問題給ChatGPT 3.5,並與來自120多所巴西大學的醫學生進行比較。結果顯示,ChatGPT在三年的平均準確率分別為69.7%、68.3%和67.2%,均超過醫學生。特別是在公共衛生方面,ChatGPT的平均得分達77.8%。這顯示出ChatGPT在醫學問題的回答準確性上超越了人類學生,包括即將畢業的醫學生。 PubMed DOI

這項研究評估了ChatGPT在醫學專業考試中的表現,並探討人工智慧如何增強醫學教育。研究中向ChatGPT提出240個問題,結果顯示其在基礎醫學和臨床醫學的正確回答率均優於18,481名醫學畢業生。特別是在婦產科和醫學微生物學方面,ChatGPT的表現相當優異,但在解剖學上則不如畢業生。研究指出,像ChatGPT這樣的AI模型能顯著提升醫學教育,提供互動支持和個性化學習,最終改善教育質量和學生成功率。 PubMed DOI

這項研究評估了ChatGPT在麻醉學和疼痛醫學的問題解決能力,特別是在韓語環境中,並比較了GPT-4、GPT-3.5和CLOVA X的表現。分析了398道問題後發現,GPT-4的準確率(67.8%)顯著高於GPT-3.5(37.2%)和CLOVA X(36.7%),而後兩者之間無顯著差異。此外,GPT-4在英語翻譯問題上的表現(75.4%)也優於韓語問題。研究強調了AI在醫學教育的潛力,但也提醒在非英語環境中應用時需謹慎,並建議進一步改進。 PubMed DOI

本研究評估了ChatGPT在回答中國超聲醫學中級專業技術資格考試問題的有效性,並探討其在超聲醫學教育中的應用潛力。共選取100道題目,包含70道單選題和30道多選題,涵蓋基礎知識、臨床知識、專業知識及實踐。 測試結果顯示,ChatGPT 3.5版本在單選題準確率為35.7%,多選題30.0%;而4.0版本則提升至61.4%和50.0%。雖然4.0版本有明顯進步,但仍未達及格標準,且在專業實踐方面表現不佳。儘管如此,ChatGPT在基礎醫學知識上的表現顯示其作為醫學教育輔助工具的潛力。 PubMed DOI