原始文章

這項研究評估了ChatGPT在根據病人症狀推薦醫療專科的效果,使用了31,482個標記有27個專科的醫療問題。結果顯示,ChatGPT的準確率為0.939,F1分數為0.134,雖然不及經過微調的韓國醫療BERT(KM-BERT)的準確率0.977和F1分數0.587,但它能提供有價值的解釋,幫助病人理解潛在的醫療狀況。雖然在專科推薦上不如KM-BERT,ChatGPT的對話能力仍可能改善病人獲取資訊的過程。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在美國醫師執照考試Step 1和Step 2的表現介於42%到64.4%之間,比InstructGPT和GPT-3表現更好。雖然在較難的問題上表現較差,但仍可提供合理答案和內部問題資訊。研究建議ChatGPT可能成為醫學教育中有用的工具,因為它準確且有邏輯性。 PubMed DOI

研究使用OpenAI的ChatGPT探討如何協助醫護人員根據患者檢驗結果製作醫療報告。ChatGPT簡化了報告生成過程,提供針對患者護理的建議。研究呈現了一位31歲男性患者的病例,展示ChatGPT根據檢驗結果提供生活方式調整和醫療治療建議的能力。比較ChatGPT和線上醫生諮詢系統的建議,突顯ChatGPT持續產生準確且臨床相關的醫療報告的潛力。 PubMed DOI

ChatGPT 是一個擅長回答各種問題的人工智慧語言模型,研究者用台灣家庭醫學專科醫師考試問題來測試它的表現。在125個問題中,ChatGPT 回答對了52個,準確率為41.6%。它在否定短語、互斥和案例情境問題上表現較好。但因考試難度高且中文資源有限,對專科考試仍有提升空間。ChatGPT 仍可用於學習和考試準備,未來研究可探討提升其在專業考試和其他領域的準確性。 PubMed DOI

研究比較了ChatGPT和Google搜尋在提供健康資訊的表現,發現ChatGPT在一般醫學知識方面表現較佳,但在提供醫療建議方面稍遜。建議醫護人員應該了解ChatGPT等AI工具的優缺點,以更有效地引導患者。 PubMed DOI

研究發現ChatGPT在理解中文醫學知識上表現良好,對醫學發展有潛力。測試顯示在中英文醫學數據集上,ChatGPT在準確性、口語流暢度和幻覺減少方面表現優異。GPT-4比GPT-3.5更出色,尤其在出院摘要邏輯和團體學習方面,符合中國臨床醫學研究生課程標準。儘管挑戰重重,ChatGPT有望推動醫學人工智慧的發展。 PubMed DOI

研究評估了ChatGPT在過去5次醫學專業考試中的表現,分析了成功率和排名。ChatGPT回答各種問題,成功率不同,排名從第1787名到第4428名。在短問題和單選多選擇題上表現較佳,但仍落後於人類專家。研究引起對ChatGPT在醫療服務潛力的好奇。 PubMed DOI

ChatGPT,一個語言模型,因為其類似人類的回應,有潛力為病人提供醫療建議。在一項研究中,ChatGPT被呈現各種醫療情境,並分析其回應的適當性。雖然大多數回應在臨床上是適當的,但這個模型缺乏個人化的醫療建議,並且常常沒有考慮可能影響建議的社會因素。 PubMed DOI

研究評估了ChatGPT在醫學診斷的表現,使用50個臨床案例。ChatGPT在結構化情境中表現準確,有時比醫師更好。它在圖像解釋上有困難,但在選擇潛在診斷方面表現優秀。研究強調了ChatGPT在臨床醫學中的潛力,並強調了補充數據和及時的工程技術對於與醫生有效互動的重要性。 PubMed DOI

遠距醫療在 COVID-19 時期大受歡迎,讓人們可以線上看醫生。研究發現大型語言模型如GPT-3對醫療對話摘要有幫助。雖然BART模型表現較佳,但專家更喜歡ChatGPT。GPT-3.5在撰寫易懂醫療摘要方面有潛力,但評估指標或許需調整。 PubMed DOI

機器學習在醫療保健領域廣泛運用,如ChatGPT用來預測和檢測模型。研究比較ChatGPT與Google搜尋回答醫療問題,發現39%答案不同,ChatGPT建議諮詢專業醫師。使用ChatGPT需謹慎,醫師應協助解釋資訊,進行知情討論。 PubMed DOI