原始文章

這項研究評估了ChatGPT 3.5在傳染病藥物治療問題上的回應質量,並由專家進行評估。結果顯示,只有41.8%的回應被認為有用,且雖然回應的正確性和安全性較高,但完整性不足。專家對回應的共識一般,對正確性和安全性則相當一致。總體來看,GPT-3.5的回應雖然正確且安全,但無法取代傳染病藥師的專業知識。 PubMed DOI


站上相關主題文章列表

研究評估了使用聊天生成預訓練變壓器(ChatGPT)回答藥物相關問題的表現和風險。結果顯示,ChatGPT在回答問題時常提供不正確或不完整的資訊,有時可能對患者造成高風險。資深醫院藥劑師評估後指出,ChatGPT的答案缺乏準確性和一致性,不建議用來取得藥物資訊。 PubMed DOI

研究指出,醫院使用AI聊天機器人ChatGPT-4為血液培養呈陽性的病人提供管理建議,雖然AI回答很詳細,但管理計劃不一定符合專家意見。AI的診斷和治療通常可靠,但有時缺乏源頭控制計劃,且提供有害治療建議。總結來說,2023年若單純依賴ChatGPT-4在嚴重感染疾病中,未經專家建議,仍有風險。 PubMed DOI

研究評估了ChatGPT在大學醫院中回答臨床藥學問題的能力,結果顯示其表現有好有壞,正確率在30%至57.1%間。有時會給出不適當答案,不能取代臨床藥師。需要進一步研究優化ChatGPT,探索其在臨床實務中的應用。 PubMed DOI

人工智慧,特別是ChatGPT,現在在醫學教育領域被應用,專注於傳染病的綜合藥物治療。研究指出,ChatGPT在課程設計、教學大綱制定和考試準備上有好處和風險。教授們評分後發現,雖有用但也有限制,例如大綱不完整和評估設計困難。建議視ChatGPT為輔助資源,結合人類智慧使用。教育工作者應謹慎整合ChatGPT到課程中,提升藥物治療相關教育品質。 PubMed DOI

研究評估了ChatGPT在回答醫學問題,特別是傳染病方面的可靠性。使用200個問題,答案取自權威指南,再現性和重複性測試皆通過。對比指南問題,社交媒體問題回答率高達92%。雖然ChatGPT等人工智慧可應用於醫療保健,但仍需謹慎使用。 PubMed DOI

研究評估了ChatGPT在處理細菌感染和抗生素敏感性相關問題以及臨床案例中的效果。結果顯示ChatGPT在回答理論問題表現不錯,但在臨床案例管理上有限制,例如識別抗藥機制和抗生素處方。ChatGPT可作為醫學教育和分析工具,但不宜取代專家諮詢在複雜決策中的重要性。 PubMed DOI

這項研究評估了ChatGPT在醫院藥劑師臨床問題上的回答能力。研究中提出了三十個包含病人細節的問題,兩位資深藥劑師對其回答進行評估。結果顯示,ChatGPT對77%的問題提供建議,但只有26%的回答準確且完整。進一步分析發現,22%的回答正確但不完整,30%部分正確,22%完全錯誤。此外,回答的一致性也很低,只有10%的回答能保持一致。總體來看,ChatGPT的準確性和重現性不佳,醫院藥劑師不應依賴其解答臨床問題,研究也指出方法論可能存在偏見影響結果。 PubMed DOI

這項研究評估了ChatGPT對臨床問題的回答,與人類撰寫的網站Pearls4Peers.com進行比較,重點在可用性和可靠性。研究發現,ChatGPT的回答質量有顯著差異,約14%的回答被認為不實用,13%不準確。與人類來源相比,ChatGPT在可用性和可靠性方面的表現均不佳,超過30%的情況下表現不如人類。總體來看,這顯示在臨床決策中使用ChatGPT需謹慎。 PubMed DOI

這項研究評估了ChatGPT在回答藥物相關問題的有效性,並與傳統藥物資訊資源的答案進行比較。在39個問題中,ChatGPT僅有10個(26%)的回答令人滿意,常見問題包括缺乏直接回應、準確性和完整性。雖然29%的回答有參考資料,但這些資料都是虛構的。研究結果建議醫療專業人員和患者在使用ChatGPT查詢藥物資訊時要特別小心。 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 PubMed DOI