原始文章

這項研究評估了ChatGPT在中國和美國的護理執照考試(NNLE)中的表現,特別是NCLEX-RN。研究編輯了150道NCLEX-RN的實務題、240道NNLE的理論題和240道實務題,並使用ChatGPT 3.5進行中英文翻譯,接著評估了ChatGPT 4.0、3.5和Google Bard的回答。 主要發現顯示,ChatGPT 4.0在NCLEX-RN實務題的英語準確率為88.7%,翻譯版本為79.3%;在NNLE理論和實務題中,準確率分別為71.9%和69.1%。整體而言,ChatGPT 4.0在護理教育和臨床決策中展現出良好的潛力。 PubMed DOI


站上相關主題文章列表

研究發現 ChatGPT 在 2019 年至 2023 年的日本國家護士考試中表現良好。它對基礎知識問題平均正確率為 75.1%,對一般問題為 64.5%。儘管在某些領域稍有不足,但整體成績令人振奮,甚至在心理學和溝通等難題上也有亮眼表現。 PubMed DOI

像ChatGPT這樣的人工智慧聊天機器人可以幫助護理教育,提升學習和臨床推理能力。一項研究分析了2022-2023年ChatGPT在RNLE上的表現,顯示它能通過考試,但可能提供誤導性的解釋或偏見。建議將ChatGPT整合到護理課程中,以進一步探索其潛力和限制。 PubMed DOI

研究評估了ChatGPT在中文醫學考試中的表現,結果顯示在中文醫學知識方面表現優秀,但在開放式問題上稍有不足。總體而言,ChatGPT在處理中文醫學考試時表現精確可靠。 PubMed DOI

研究發現ChatGPT在中文醫學考試中及格,但回答開放式問題準確度較低。儘管有多元見解,仍有改進空間。未來研究應探討ChatGPT在醫療領域的語言表現。 PubMed DOI

研究發現ChatGPT在2017至2021年的中國國家醫學考試中表現不佳,準確度未達0.6閾值。儘管在不同科目中表現差異不大,但根據問題類型有所不同。ChatGPT在臨床流行病學、人類寄生蟲學和皮膚病學等領域表現優秀,同時在分子、健康管理、預防、診斷和篩檢等主題上也表現出色。研究指出大型語言模型在醫學教育中有潛力,但也強調提高表現需要高質量醫學數據的重要性。 PubMed DOI

研究發現,ChatGPT在台灣護理師執照考試準備中有80.75%的準確率,但在不同科目表現不盡相同。它在臨床案例和複雜問題上有困難,答案和解釋也不一致。這突顯了ChatGPT在護理教育中的潛力和限制,對AI教育工具的發展有所助益。 PubMed DOI

研究評估了GPT-4在中國護理考試中的表現,發現在多重選擇題上有71.0%的正確率。在開放式問題方面,表現一般。雖然在基礎知識問題上表現不錯,但回答開放式問題有限制。護理教育者應該評估GPT-4在教學中的利弊。 PubMed DOI

這項研究回顧了ChatGPT在醫學執照考試的表現,分析了2022年1月到2024年3月間的45項研究。結果顯示,GPT-4的準確率達81%,優於GPT-3.5的58%。GPT-4在29項考試中通過26項,並在17個案例中超越醫學生。雖然翻譯問題提升了GPT-3.5的表現,但對GPT-4無影響。兩者在問題類型上表現不同,GPT-3.5在短文本問題上較佳,而開放式問題則都面臨挑戰。研究強調了GPT-4在醫學教育的潛力,但也指出準確性不一致及各國知識差異的挑戰,旨在提供教育者和政策制定者相關資訊。 PubMed DOI

這項研究評估了ChatGPT在中國國家醫學執照考試中的表現,特別是GPT-3.5和GPT-4.0版本。研究發現,GPT-4.0的及格率為72.7%,明顯高於GPT-3.5的54%。此外,GPT-4.0的回答變異性較低,且在15個醫學子專科中有14個超過準確性門檻,顯示其在醫學教育和臨床實踐中的潛在應用價值。總體而言,GPT-4.0在準確性和一致性上表現更佳,值得進一步探索。 PubMed DOI

這項研究評估了ChatGPT模型(ChatGPT-3.5和GPT-4)在醫學、藥學、牙醫學和護理學的健康執照考試表現。分析了23項研究後發現,ChatGPT-3.5的準確率介於36%到77%,而GPT-4則在64.4%到100%之間,整體準確率為70.1%。GPT-4的表現優於ChatGPT-3.5,藥學的準確率最高,其次是醫學、牙醫學和護理學。研究指出問題集範圍狹窄及研究間變異性大,建議未來需進一步研究以擴展問題類型及提升AI模型。 PubMed DOI