原始文章

這項研究發現,GPT-4在臨床倫理兩難情境下,能給出明確且積極的建議,與倫理原則的符合度高達86%。不過,遇到墮胎或代理孕母等議題時表現較弱,最低僅60%。雖然GPT-4有助於臨床決策,但偶爾會出錯或無法完全遵守倫理標準,實際應用上還是有侷限。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT-3.5和ChatGPT-4在醫療決策中的表現,結果顯示GPT-4優於GPT-3.5。資深醫師給予較高評分,尤其在倫理問題上。AI有助於醫師,但不應取代人類專業知識,需進一步研究整合到臨床環境中的方法。 PubMed DOI

研究評估了ChatGPT 3.5和4.0的道德能力,結果顯示ChatGPT 4.0在整體道德偏好和C-指數分數上表現較佳。兩者偏好Kohlberg理論的後期階段,顯示中等道德能力,但分數有變異性,需要進一步訓練。ChatGPT可用於評估論點,協助醫師在倫理情境中做決策。 PubMed DOI

研究比較了OpenAI的GPT-4與人類專家在心臟病學建議的醫學準確性。結果發現,GPT-4和人類專家在醫學準確性上差不多,人類專家在高準確性回答上表現較好,但也有更多低準確性回答。GPT-4回答較長,用詞較少多樣,可能有助於一般人理解。然而,人類專家在藥物資訊和初步診斷等特定問題上表現更好,顯示GPT-4在臨床判斷上有限。雖然GPT-4在自動醫學諮詢有潛力,但需改進整合臨床推理,確保安全使用。進一步研究探索大型語言模型在醫學領域的潛力是必要的。 PubMed DOI

這項研究探討了OpenAI的ChatGPT 3.5和GPT 4.0在生成針對病人的臨床筆記時的表現,針對2型糖尿病、重度抑鬱症和懷疑腸癌三種病症進行分析。主要發現包括:生成的筆記比原始的更長,且使用了更多的代名詞;可讀性要求較高,特別是ChatGPT 3.5;同理心表現更佳;醫學準確性方面,ChatGPT 4.0的評價較高。總體來看,雖然增強了情感和同理心,但語言複雜性也提高,可能影響醫學準確性。 PubMed DOI

這項研究評估了GPT-4在分析來自美國、哥倫比亞、新加坡和義大利的醫療筆記的有效性。研究收集了56份去識別化的醫療筆記,75%為英語,13%為義大利語,13%為西班牙語。每份筆記附有14個問題,GPT-4的回答由兩位獨立醫師驗證。結果顯示,GPT-4的回答在79%的案例中獲得一致認同,西班牙語(88%)和義大利語(84%)的認同率高於英語(77%)。這顯示GPT-4在多語言醫療筆記分析中具備潛力,能提升臨床工作流程。 PubMed DOI

人工智慧(AI)在醫療領域的應用帶來了機會與挑戰,尤其在倫理和專業問題上。本研究評估了ChatGPT 3.5和4.0在處理醫療情境中的表現,使用了273道來自不同題庫的問題。結果顯示,GPT-3.5的正確回答率普遍低於醫學生的平均水平,而GPT-4在某些題庫中表現較佳。雖然GPT-4在倫理和人際互動方面顯示潛力,但人類的推理能力仍然優於AI,未來需持續發展AI系統以提升其在醫療中的有效性。 PubMed DOI

最近的研究顯示,GPT-4V在醫學影像的解讀上有不錯的潛力,尤其在美國醫學執照考試中表現優異,Step 1得分84.2%、Step 2 85.7%、Step 3 88.9%。不過,雖然正確答案的解釋質量接近人類專家,但錯誤答案的解釋常常不準確,顯示出明顯的弱點。模型在處理複雜案例時也面臨挑戰,需要多次提示才能給出準確解釋。因此,在將GPT-4V應用於臨床前,仍需進一步評估其影像解釋能力。 PubMed DOI

這項研究發現,ChatGPT-4在有選擇題選項時,答對率超過86%,但沒選項時最低只有61.5%。它在管理問題上比診斷問題更容易出錯。雖然GPT-4能處理臨床資訊,但不是真的懂臨床情境。未來如果和專業醫療人員搭配,有機會幫助臨床工作,但還需要更多測試來確保安全和有效。 PubMed DOI

研究發現,GPT-4能幫助醫師提升腎臟科答題分數,尤其對資淺醫師幫助最大。不過,在某些臨床領域,資深醫師參考GPT-4後反而表現變差。雖然GPT-4有助提升準確率,但在醫療決策時仍需謹慎使用。 PubMed DOI

這項研究發現,GPT-4在乳癌和婦科癌症治療建議上表現尚可,乳癌案例與專家意見一致率最高達84%。雖然經過多次提示後表現有提升,但在正確性、完整性及手術、基因檢測建議上仍有限制。未來AI可輔助臨床決策,但專家把關還是很重要。 PubMed DOI