原始文章

這項研究評估了ChatGPT在回答藥物相關問題的有效性,並與傳統藥物資訊資源的答案進行比較。在39個問題中,ChatGPT僅有10個(26%)的回答令人滿意,常見問題包括缺乏直接回應、準確性和完整性。雖然29%的回答有參考資料,但這些資料都是虛構的。研究結果建議醫療專業人員和患者在使用ChatGPT查詢藥物資訊時要特別小心。 PubMed DOI


站上相關主題文章列表

研究評估了使用聊天生成預訓練變壓器(ChatGPT)回答藥物相關問題的表現和風險。結果顯示,ChatGPT在回答問題時常提供不正確或不完整的資訊,有時可能對患者造成高風險。資深醫院藥劑師評估後指出,ChatGPT的答案缺乏準確性和一致性,不建議用來取得藥物資訊。 PubMed DOI

研究發現ChatGPT對非腫瘤病例的回應比腫瘤和急診病例更貼切,但資訊品質較差,閱讀水準相當於大學畢業生。雖可作為線上醫療資訊工具,但使用時仍需謹慎,因回應品質和適切性有差異。 PubMed DOI

OpenAI的ChatGPT因為處理自然語言能力強,界面友善而受矚目。在台灣進行的研究發現,ChatGPT在回答藥物問題方面比醫療提供者表現更好。結果顯示ChatGPT可用於基本藥物諮詢,但錯誤也顯示了潛在醫療風險需關注。 PubMed DOI

這項研究評估了ChatGPT對勃起功能障礙(ED)相關問題的回答,包括準確性、易讀性和可重複性。ChatGPT在疾病流行病學和治療風險以及諮詢方面提供了準確的回答,但對治療選項的理解不完整。回答通常易讀,但有時對一般患者來說過於專業。在不同問題領域中,可重複性有所不同。 PubMed DOI

研究評估了ChatGPT在大學醫院中回答臨床藥學問題的能力,結果顯示其表現有好有壞,正確率在30%至57.1%間。有時會給出不適當答案,不能取代臨床藥師。需要進一步研究優化ChatGPT,探索其在臨床實務中的應用。 PubMed DOI

ChatGPT是一個人工智慧工具,能提供準確資訊,但對患者資訊有限。它通常給出正確答案,但因提示不同而有變化,患者可能不清楚如何使用。ChatGPT缺乏答案來源,對患者來說不夠可靠。醫師的專業知識很重要,能解釋AI回應給患者。 PubMed DOI

這項研究評估了ChatGPT對於日本非處方藥的詢問回應。對ChatGPT的回應進行了一致性、科學正確性和指示行動的適當性評估。結果顯示,僅有20.8%的回應符合所有標準,對於品牌名稱的準確性較低。建議日本消費者避免向ChatGPT諮詢非處方藥,尤其是品牌名稱。 PubMed DOI

這項研究評估了ChatGPT在醫院藥劑師臨床問題上的回答能力。研究中提出了三十個包含病人細節的問題,兩位資深藥劑師對其回答進行評估。結果顯示,ChatGPT對77%的問題提供建議,但只有26%的回答準確且完整。進一步分析發現,22%的回答正確但不完整,30%部分正確,22%完全錯誤。此外,回答的一致性也很低,只有10%的回答能保持一致。總體來看,ChatGPT的準確性和重現性不佳,醫院藥劑師不應依賴其解答臨床問題,研究也指出方法論可能存在偏見影響結果。 PubMed DOI

這項研究評估了ChatGPT對臨床問題的回答,與人類撰寫的網站Pearls4Peers.com進行比較,重點在可用性和可靠性。研究發現,ChatGPT的回答質量有顯著差異,約14%的回答被認為不實用,13%不準確。與人類來源相比,ChatGPT在可用性和可靠性方面的表現均不佳,超過30%的情況下表現不如人類。總體來看,這顯示在臨床決策中使用ChatGPT需謹慎。 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 PubMed DOI