原始文章

本研究評估了ChatGPT在回答中國超聲醫學中級專業技術資格考試問題的有效性,並探討其在超聲醫學教育中的應用潛力。共選取100道題目,包含70道單選題和30道多選題,涵蓋基礎知識、臨床知識、專業知識及實踐。 測試結果顯示,ChatGPT 3.5版本在單選題準確率為35.7%,多選題30.0%;而4.0版本則提升至61.4%和50.0%。雖然4.0版本有明顯進步,但仍未達及格標準,且在專業實踐方面表現不佳。儘管如此,ChatGPT在基礎醫學知識上的表現顯示其作為醫學教育輔助工具的潛力。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在理解中文醫學知識上表現良好,對醫學發展有潛力。測試顯示在中英文醫學數據集上,ChatGPT在準確性、口語流暢度和幻覺減少方面表現優異。GPT-4比GPT-3.5更出色,尤其在出院摘要邏輯和團體學習方面,符合中國臨床醫學研究生課程標準。儘管挑戰重重,ChatGPT有望推動醫學人工智慧的發展。 PubMed DOI

研究評估了ChatGPT在過去5次醫學專業考試中的表現,分析了成功率和排名。ChatGPT回答各種問題,成功率不同,排名從第1787名到第4428名。在短問題和單選多選擇題上表現較佳,但仍落後於人類專家。研究引起對ChatGPT在醫療服務潛力的好奇。 PubMed DOI

一項名為ChatGPT的新人工智慧技術正在接受測試,以評估其回答醫學問題的能力,結果顯示在一套包含120道醫學考試問題的測試中,正確回答率達到67.1%,顯示出潛力。儘管ChatGPT在醫學教育中可以是一個有價值的工具,但由於其限制,它無法完全取代人類專業知識。 PubMed DOI

研究發現ChatGPT在台灣核子醫學專業考試中表現優異,尤其在理論知識和臨床醫學方面。然而,在醫學法規問題上稍嫌不足。研究使用GPT-4和思維鏈方法提升人工智慧表現,建議問題適中且含較多英文單詞可提高準確性。人工智慧可協助評估考試難度,確保公平性,在醫療教育和多語環境中展現潛力,未來進步將提升其在醫學領域的實用性。 PubMed DOI

研究發現ChatGPT在中文醫學考試中及格,但回答開放式問題準確度較低。儘管有多元見解,仍有改進空間。未來研究應探討ChatGPT在醫療領域的語言表現。 PubMed DOI

研究發現ChatGPT在中醫臨床醫學考試中表現良好,尤其在醫學人文學科方面。然而,在病理學問題上表現較差。ChatGPT在單選題方面表現較多選題更好。儘管有潛力幫助醫學知識,但仍需改進準確性和可靠性。有效運用ChatGPT於醫學教育需謹慎評估和積極採取措施。 PubMed DOI

ChatGPT-4在TUBE考試中表現優於ChatGPT-3.5,但準確度有下降趨勢,面臨通過考試的困難。它解釋一致,但管理不確定性困難,容易過度自信。雖有潛力處理醫學資訊,需謹慎使用,尤其對經驗不足者。需持續發展泌尿科專用AI工具以因應挑戰。 PubMed DOI

這項研究回顧了ChatGPT在醫學執照考試的表現,分析了2022年1月到2024年3月間的45項研究。結果顯示,GPT-4的準確率達81%,優於GPT-3.5的58%。GPT-4在29項考試中通過26項,並在17個案例中超越醫學生。雖然翻譯問題提升了GPT-3.5的表現,但對GPT-4無影響。兩者在問題類型上表現不同,GPT-3.5在短文本問題上較佳,而開放式問題則都面臨挑戰。研究強調了GPT-4在醫學教育的潛力,但也指出準確性不一致及各國知識差異的挑戰,旨在提供教育者和政策制定者相關資訊。 PubMed DOI

這項研究評估了ChatGPT在歐洲泌尿學會的考試表現,特別是版本3.5和4。分析了2017至2022年的多選題,結果顯示ChatGPT-4在所有考試中表現優於3.5,且每次考試都達到及格分數(≥60%)。不過,ChatGPT-4在某些子主題如尿失禁和移植的表現有所下降。整體來看,研究指出ChatGPT-4能有效回答複雜醫學問題,但仍需人類驗證其回應在醫療環境中的可靠性。 PubMed DOI

這項研究評估了OpenAI的ChatGPT在波蘭醫學考試中的表現,特別是3.5和4.0版本。分析196道選擇題後,發現3.5版本的正確率為50.51%,而4.0版本提升至77.55%,超過及格線56%。值得注意的是,3.5版本對正確答案的信心較高,而4.0版本則在準確性上表現一致。不同醫學領域的表現差異不大。總體來看,ChatGPT 4.0在醫學教育和評估中展現了潛力,未來版本如5.0預期會有更好表現。 PubMed DOI