原始文章

這項研究調查了醫療病房中出院處方的潛在藥物間相互作用(pDDIs),並比較了Micromedex與AI模型ChatGPT-4.0的有效性。研究涵蓋301名患者,發現60.13%的患者有pDDIs,平均每位患者有3.17個。ChatGPT-4.0在識別pDDIs方面準確率達100%,但在嚴重性和發作時間的準確率較低。多重用藥顯著增加pDDIs的風險。雖然ChatGPT-4.0顯示潛力,但醫療專業人員仍需保持警覺以管理藥物相互作用。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT-3.5、ChatGPT-4和Micromedex在評估腎臟疾病患者使用非處方藥物和補充劑的安全性。結果顯示ChatGPT-4與Micromedex的一致性較高,但ChatGPT模型仍需提升準確性和可靠性,才能在醫學領域中被視為可靠的藥物資訊來源。 PubMed DOI

這項研究評估了ChatGPT在醫院藥劑師臨床問題上的回答能力。研究中提出了三十個包含病人細節的問題,兩位資深藥劑師對其回答進行評估。結果顯示,ChatGPT對77%的問題提供建議,但只有26%的回答準確且完整。進一步分析發現,22%的回答正確但不完整,30%部分正確,22%完全錯誤。此外,回答的一致性也很低,只有10%的回答能保持一致。總體來看,ChatGPT的準確性和重現性不佳,醫院藥劑師不應依賴其解答臨床問題,研究也指出方法論可能存在偏見影響結果。 PubMed DOI

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

這項研究評估了生成式人工智慧模型ChatGPT在預測住院病人藥物間相互作用(DDIs)的有效性。研究人員將病人的資料輸入ChatGPT,並用三種不同的提示進行比較。結果顯示,當提示明確提到「藥物相互作用」時,ChatGPT的敏感度較高,但整體準確性仍然偏低,假陰性比例高,且與藥劑師的協議程度極低。Cohen's kappa值顯示評估者之間的可靠性不佳,強調在臨床使用前,ChatGPT仍需進一步改進。 PubMed DOI

這項研究探討了使用ChatGPT評估草藥與藥物之間的相互作用(HDi),以改善臨床決策。研究針對一位接受卡培他濱治療的直腸腺癌患者,並使用了多種草藥補充品。雖然ChatGPT能快速處理數據,但藥師認為16%的相互作用不太可能,73%的機制被判定為假陽性,4%為幻覺。大部分引用的文獻過時或無法獲取。研究建議進一步探索AI在此領域的應用,並強調專家驗證的重要性。 PubMed DOI

這項研究探討了生成預訓練變壓器(GPT)模型在評估處方藥、非處方藥及草藥補充品之間的藥物相互作用的有效性。以Lexicomp®為參考,研究評估了73對藥物組合,結果顯示所有GPT模型的準確率都低於50%,且與Lexicomp的協議度也很低。雖然GPT-4和GPT-4o在識別高風險相互作用上稍有改善,但整體而言,這些發現顯示大型語言模型在藥物相互作用評估中的局限性,對病人安全的可靠性引發擔憂。 PubMed DOI

這項研究評估了ChatGPT(GPT-4版本)在英國初級醫師的處方安全評估(PSA)中的表現。測試結果顯示,ChatGPT在四份官方PSA練習試卷上的平均得分分別為85.67%、78.67%、66.33%和77.67%,均高於及格分數。它在「不良藥物反應」和「信息傳達」等需要記憶的部分表現良好,但在「數據解釋」上則較弱,顯示其在複雜臨床推理上的限制。雖然ChatGPT在支持安全處方方面有潛力,但目前仍不適合取代人類醫師,應作為輔助工具使用。 PubMed DOI

用藥錯誤,尤其是劑量計算,對醫療保健來說是一大問題。人工智慧(AI)系統如ChatGPT和Google Bard有潛力減少這些錯誤,但其準確性需進一步評估。研究顯示,ChatGPT 4在提供藥物劑量資訊上表現最佳,正確率達83.77%。不過,不同疾病的準確性差異明顯,顯示AI系統仍需改進。這強調了AI在醫療領域的潛力及持續發展的重要性,以確保在關鍵情境中的可靠性。 PubMed DOI

這項研究評估了Chat GPT在分析潛在藥物間相互作用(pDDIs)的效果,並與現有的臨床決策支持系統(CDSSs)如MediQ®、Lexicomp®和Micromedex®進行比較。研究中有30名使用多種藥物的患者,結果顯示CDSSs識別了280個臨床相關的pDDIs,而Chat GPT僅檢測到80個。特別是,Chat GPT漏掉了許多與QTc延長相關的pDDIs,且在90%的重複查詢中結果不一致。雖然在某些副作用查詢中提供了有用建議,但整體表現仍不理想,結論認為目前不適合用於pDDI分析,但未來有改進的潛力。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在藥物諮詢服務中的表現。結果顯示,ChatGPT 3.5在80%的案例中提供了不錯的答案,而ChatGPT 4.0的表現更佳,98%的回應與醫生的回答相似或更好。不過,兩者的回應都缺乏參考文獻,有時也未能充分解決臨床相關問題。雖然ChatGPT 4.0的答案品質相當高,但在提供參考和臨床解釋方面的不足,顯示它不太適合成為臨床環境中的主要資訊來源。 PubMed DOI