原始文章

美國健康系統藥學期刊(AJHP)現在會迅速在線上發布已接受的手稿,這是在最終格式化和作者校對之前。最近一項研究評估了四個大型語言模型(LLMs)——ChatGPT 4.0、Microsoft Copilot、Google Gemini 1.5 和 Meta AI,並將它們的藥物建議與重症成人的臨床指導方針進行比較。結果顯示,這些AI的回應準確性差異顯著,Microsoft Copilot 提供的正確建議比例最高,而Google Gemini則有最多不正確的回應。雖然這些AI顯示出潛力,但在重症護理的藥物建議上仍不夠準確。 PubMed DOI


站上相關主題文章列表

這篇文章探討了人工智慧語言模型,特別是ChatGPT和ChatSonic在醫療領域的應用,針對病人高血壓問題進行比較。研究使用全球質量評估標準和修訂版DISCERN量表,於2023年10月進行,持續一個月,向兩個AI模型提出十個高血壓相關問題,並由兩位內科醫師評估其回應。結果顯示回應質量和可靠性有差異,評估者之間共識程度低,強調在醫療環境中持續監控和驗證AI資訊的重要性。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在藥物審查中的表現,特別是劑量錯誤、藥物相互作用及基因組學建議的能力。研究測試了四個LLM,發現ChatGPT在劑量方案上表現良好,但對simvastatin的問題有例外。所有LLM都能識別warfarin的相互作用,但錯過metoprolol和verapamil的相互作用。Claude-Instant在治療監測上提供適當建議,而Gemini在基因組學上表現不錯。研究指出,LLM在藥物審查中有潛力,但整合進醫療系統對病人安全至關重要。 PubMed DOI

這項評估針對五種大型語言模型(LLMs)在重症護理藥物治療問題上的表現進行測試,結果顯示ChatGPT-4的準確性最高,達71.6%。LLMs在知識回憶問題上表現較好,但在知識應用問題上則不及藥學博士學生(學生準確性81%)。使用思考鏈提示可提升ChatGPT-4的準確性至77.4%。這顯示LLMs在特定領域仍需進一步訓練,以改善其應用能力,對於全面藥物管理的使用應謹慎。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在藥物諮詢服務中的表現。結果顯示,ChatGPT 3.5在80%的案例中提供了不錯的答案,而ChatGPT 4.0的表現更佳,98%的回應與醫生的回答相似或更好。不過,兩者的回應都缺乏參考文獻,有時也未能充分解決臨床相關問題。雖然ChatGPT 4.0的答案品質相當高,但在提供參考和臨床解釋方面的不足,顯示它不太適合成為臨床環境中的主要資訊來源。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI

大型語言模型(LLMs)在醫療領域的應用日益增多,能協助診斷和治療感染。一項研究比較了全科醫生與六個LLMs(如ChatGPT、Gemini等)對24個臨床案例的反應。全科醫生在診斷和抗生素處方的準確率高達96%-100%,但在劑量和療程的準確性上較低(50%-75%)。LLMs的表現也不錯,但在參考指導方針的能力上不一致,特別是在挪威的表現不佳。研究指出LLMs有數據洩漏的風險,雖然它們在抗生素處方上有潛力,但全科醫生在臨床情境解釋和指導方針應用上仍更具優勢。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT 3.5、ChatGPT 4.0和Gemini,對自體免疫疾病臨床問題的回答效果。共提出46個問題,並由專家根據五個質量維度進行評估。結果顯示,ChatGPT 4.0在所有維度上表現優於其他兩者,平均得分為199.8,顯示其在相關性、正確性、完整性、有用性和安全性方面的顯著優勢。整體而言,ChatGPT 4.0在提供準確且有用的醫療資訊上,顯示出更高的效能,顯示大型語言模型在醫療服務中的潛力。 PubMed DOI

這項研究評估了三個生成式人工智慧模型—ChatGPT-4o、Gemini 1.5 Advanced Pro 和 Claude 3.5 Sonnet—在創建與高血壓和糖尿病相關的藥理學問題的有效性。使用一次性提示,這些模型生成了60個問題,並由多學科小組進行可用性評估。103名醫學生在考試中回答了AI生成的問題,結果顯示AI問題的正確率與專家問題相當,且AI生成問題的準備效率顯著提升。然而,仍有19個問題被認為無法使用,顯示專家審查的重要性。結合AI效率與專家驗證的方式,可能是改善醫學教育的最佳策略。 PubMed DOI

這項研究探討了大型語言模型(LLMs),如ChatGPT-4、Bing和Bard,對肝臟病學臨床問題的回答效果。研究於2023年9月進行,涵蓋144個多選題和開放式問題。結果顯示,ChatGPT-4在多選題的準確率為62.3%,開放式問題則為44.4%,均為最高;Bing和Bard的表現則較低。值得注意的是,ChatGPT-4和Bing回答了所有問題,而Bard有11.8%的問題無法回應。研究建議需進一步探討如何在臨床和教育中最佳利用這些模型。 PubMed DOI

這項研究比較了三款AI聊天機器人在土耳其醫學專科考試急診醫學題目的表現,發現 Copilot 錯誤率最低,Gemini 錯誤率最高。三款AI在創傷、外科、燒燙傷和小兒題目表現較差,遇到機率題時錯誤率也會增加。雖然AI能輔助學習,但不建議當作醫學考試的主要讀書工具。 PubMed DOI