原始文章

這項研究評估了生成式人工智慧模型ChatGPT在預測住院病人藥物間相互作用(DDIs)的有效性。研究人員將病人的資料輸入ChatGPT,並用三種不同的提示進行比較。結果顯示,當提示明確提到「藥物相互作用」時,ChatGPT的敏感度較高,但整體準確性仍然偏低,假陰性比例高,且與藥劑師的協議程度極低。Cohen's kappa值顯示評估者之間的可靠性不佳,強調在臨床使用前,ChatGPT仍需進一步改進。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT探討藥物相互作用的預測和解釋,結果顯示ChatGPT部分有效,但有不確定性。建議雖然ChatGPT可作為患者尋求DDIs信息的工具,但並非完全可靠,仍需進一步改進以幫助患者理解。 PubMed DOI

研究評估了使用聊天生成預訓練變壓器(ChatGPT)回答藥物相關問題的表現和風險。結果顯示,ChatGPT在回答問題時常提供不正確或不完整的資訊,有時可能對患者造成高風險。資深醫院藥劑師評估後指出,ChatGPT的答案缺乏準確性和一致性,不建議用來取得藥物資訊。 PubMed DOI

OpenAI的ChatGPT因為處理自然語言能力強,界面友善而受矚目。在台灣進行的研究發現,ChatGPT在回答藥物問題方面比醫療提供者表現更好。結果顯示ChatGPT可用於基本藥物諮詢,但錯誤也顯示了潛在醫療風險需關注。 PubMed DOI

AI平台如ChatGPT-3.5、ChatGPT-4、Bing AI和Bard在預測醫療保健中藥物相互作用的準確性進行比較,結果顯示微軟的Bing AI在特異性和準確性方面表現最佳,勝過其他AI聊天機器人。這些AI工具在快速分析潛在相互作用方面表現敏感,有助提升患者護理水準,雖然不同藥物類別的表現有所差異。 PubMed DOI

這項研究探討了大型語言模型ChatGPT如何辨識藥物與疾病之間的關聯。透過提供不同提示,ChatGPT在真實關聯方面達到了74.6-83.5%的準確率,對於虛假配對則達到了96.2-97.6%。這顯示了ChatGPT在這個領域的潛力,但在醫學實際應用之前需要進一步驗證。 PubMed DOI

研究評估了ChatGPT在大學醫院中回答臨床藥學問題的能力,結果顯示其表現有好有壞,正確率在30%至57.1%間。有時會給出不適當答案,不能取代臨床藥師。需要進一步研究優化ChatGPT,探索其在臨床實務中的應用。 PubMed DOI

生成式人工智慧系統如ChatGPT在臨床環境中對治療物質使用障礙(SUDs)有潛力。本研究探討其在回答相關問題的有效性,透過線上康復論壇收集提問,並使用ChatGPT和Meta的LLaMA-2生成回應。雖然臨床醫師評價這些回應為高品質,但研究中發現了一些危險的錯誤資訊,如忽略自殺意念和提供不正確的求助熱線。這些結果顯示在醫療環境中使用此類人工智慧的風險,強調需進一步保障措施和臨床驗證。 PubMed DOI

這篇系統性回顧探討了ChatGPT在醫療保健的應用,包括教育、研究、寫作、病患溝通等。透過對多個資料庫的搜尋,找到83篇相關研究,顯示ChatGPT能改善科學研究和學術寫作的文法與清晰度,特別對非英語使用者有幫助。不過,它也有不準確性、倫理問題和情感敏感度不足等限制。雖然能簡化工作流程並支持診斷與教育,但仍需謹慎使用,因為資訊可靠性和誤導性回應的風險存在。 PubMed DOI

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

這項研究探討了使用ChatGPT評估草藥與藥物之間的相互作用(HDi),以改善臨床決策。研究針對一位接受卡培他濱治療的直腸腺癌患者,並使用了多種草藥補充品。雖然ChatGPT能快速處理數據,但藥師認為16%的相互作用不太可能,73%的機制被判定為假陽性,4%為幻覺。大部分引用的文獻過時或無法獲取。研究建議進一步探索AI在此領域的應用,並強調專家驗證的重要性。 PubMed DOI