原始文章

這項研究探討了使用GPT-4和自訂GPT代理來預先分類碟擴散結果,以識別革蘭氏陰性菌中的β-內酰胺酶產生。研究分析了225個分離株,並將其分類為不同抗藥機制。結果顯示,微生物學家的診斷準確率高達94.4%,而自訂GPT代理的符合率為81.9%,且未經自訂的GPT-4表現不佳,僅19.6%準確。這顯示AI在抗微生物抗藥性診斷中有潛力,但仍需人類專業知識以確保準確性和效率。 PubMed DOI


站上相關主題文章列表

研究比較了最新的人工智慧模型 GPT-4 與前身 GPT-3.5 在81個複雜醫學案例的表現。GPT-4 在主要診斷準確率達38.3%,在不同診斷方面提高至71.6%。它在84.0%的案例提出主要診斷建議,大多數領域優於GPT-3.5,除了藥物反應。GPT-4 在感染性疾病和藥物反應方面表現優異,但在認知障礙案例中稍差。總的來說,GPT-4 在準確診斷、全面不同診斷和適當調查方面展現潛力,雖然表現因醫學專業領域而略有不同。 PubMed DOI

研究比較了OpenAI的GPT-4與人類專家在心臟病學建議的醫學準確性。結果發現,GPT-4和人類專家在醫學準確性上差不多,人類專家在高準確性回答上表現較好,但也有更多低準確性回答。GPT-4回答較長,用詞較少多樣,可能有助於一般人理解。然而,人類專家在藥物資訊和初步診斷等特定問題上表現更好,顯示GPT-4在臨床判斷上有限。雖然GPT-4在自動醫學諮詢有潛力,但需改進整合臨床推理,確保安全使用。進一步研究探索大型語言模型在醫學領域的潛力是必要的。 PubMed DOI

研究評估了ChatGPT在處理細菌感染和抗生素敏感性相關問題以及臨床案例中的效果。結果顯示ChatGPT在回答理論問題表現不錯,但在臨床案例管理上有限制,例如識別抗藥機制和抗生素處方。ChatGPT可作為醫學教育和分析工具,但不宜取代專家諮詢在複雜決策中的重要性。 PubMed DOI

本研究評估了兩個大型語言模型(LLMs),GPT-4o 和 Gemini 1.5 Pro,在微生物分類的視覺準確性。測試中,GPT-4o 對 *Clostridium perfringens*、*Pseudomonas aeruginosa* 和 *Staphylococcus aureus* 的識別準確率達100%,而 Gemini 1.5 Pro 的準確率則為45%、100%和95%。兩者在識別 *Neisseria gonorrhoeae* 時均表現不佳。總體來看,GPT-4o 在識別上持續優於 Gemini 1.5 Pro,但目前這些模型尚不適合臨床微生物學應用,需進一步研究以提升其有效性。 PubMed DOI

在醫療保健領域,人工智慧(AI)在抗生素處方的應用逐漸增多。透過機器學習技術,如邏輯回歸和深度神經網絡,臨床決策支持系統(ML-CDSSs)展現出改善抗生素處方的潛力。根據PubMed的研究,抗生素處方過程複雜,ML-CDSSs能正面影響臨床結果,但仍面臨挑戰,包括訓練數據透明度、黑箱模型的解釋需求,以及法律與倫理框架的建立,以確保決策責任。 PubMed DOI

抗微生物抗藥性對全球公共健康造成重大挑戰。本研究評估了AI語言模型ChatGPT<sup>®</sup>在抗生素處方上的表現,並與傳染病專家比較。研究創建了100個模擬病人案例,結果顯示ChatGPT<sup>®</sup>與專家在抗生素處方上達成一致的有51個案例,Cohen's kappa係數為0.48,顯示中等一致性。在抗藥性機制方面,雙方一致的有42個案例,kappa係數為0.39,顯示公平一致性。整體而言,ChatGPT<sup>®</sup>在抗生素管理上的一致性較差。 PubMed DOI

抗微生物抗藥性是全球健康的重要議題,亟需創新策略來改善抗生素管理。AI 聊天機器人,特別是大型語言模型,能協助臨床醫師優化抗生素治療。本研究回顧了過去五年相關文獻,發現AI 聊天機器人能提供抗生素建議、增強醫學教育及改善臨床決策,但仍面臨臨床細節管理不一致、算法偏見及數據隱私等挑戰。未來需進行嚴格的臨床試驗及跨學科合作,以確保其安全有效地應用於臨床。 PubMed DOI

抗微生物抗藥性(AMR)對全球健康構成嚴重威脅,預計到2050年每年可能造成1000萬人死亡。為了有效應對,公共衛生訊息需針對不同受眾調整。本研究評估了ChatGPT-4生成適合文化和語言的AMR意識內容的能力。專家們識別了AMR的主要貢獻者,並開發了多語言的內容。雖然ChatGPT-4在生成定制內容方面顯示潛力,但質量差異顯著,需專業審查。未來研究應聚焦於完善提示和整合反饋,以提升內容有效性。 PubMed DOI

將大型語言模型(LLMs)整合進抗生素處方的醫療決策中,逐漸受到重視,但面臨挑戰。首先,LLMs在臨床環境中的應用需更深入的醫療理解,因為它們的建議直接影響病患健康。其次,專業知識悖論顯示醫療人員可能過度依賴AI,影響臨床判斷。因此,AI應該輔助而非取代人類決策。最後,LLMs的錯誤風險需謹慎對待,必須建立健全的驗證流程,確保其作為輔助工具的角色。 PubMed DOI

大型語言模型(LLMs)在醫療領域的應用日益增多,能協助診斷和治療感染。一項研究比較了全科醫生與六個LLMs(如ChatGPT、Gemini等)對24個臨床案例的反應。全科醫生在診斷和抗生素處方的準確率高達96%-100%,但在劑量和療程的準確性上較低(50%-75%)。LLMs的表現也不錯,但在參考指導方針的能力上不一致,特別是在挪威的表現不佳。研究指出LLMs有數據洩漏的風險,雖然它們在抗生素處方上有潛力,但全科醫生在臨床情境解釋和指導方針應用上仍更具優勢。 PubMed DOI