原始文章

這項研究評估了ChatGPT 3.5在傳染病藥物治療問題上的回應質量,並由專家進行評估。結果顯示,只有41.8%的回應被認為有用,且雖然回應的正確性和安全性較高,但完整性不足。專家對回應的共識一般,對正確性和安全性則相當一致。總體來看,GPT-3.5的回應雖然正確且安全,但無法取代傳染病藥師的專業知識。 PubMed DOI


站上相關主題文章列表

人工智慧,特別是ChatGPT,現在在醫學教育領域被應用,專注於傳染病的綜合藥物治療。研究指出,ChatGPT在課程設計、教學大綱制定和考試準備上有好處和風險。教授們評分後發現,雖有用但也有限制,例如大綱不完整和評估設計困難。建議視ChatGPT為輔助資源,結合人類智慧使用。教育工作者應謹慎整合ChatGPT到課程中,提升藥物治療相關教育品質。 PubMed DOI

研究評估了ChatGPT在回答醫學問題,特別是傳染病方面的可靠性。使用200個問題,答案取自權威指南,再現性和重複性測試皆通過。對比指南問題,社交媒體問題回答率高達92%。雖然ChatGPT等人工智慧可應用於醫療保健,但仍需謹慎使用。 PubMed DOI

藥劑師工作負擔重、人才短缺。研究比較GPT聊天機器人(GPT-3、GPT-3.5、GPT-4)與藥劑師回答藥物諮詢的準確性。結果顯示GPT-4與藥劑師相當,提供詳盡回答並主動提供風險減輕資訊。GPT-4潛力大,可支援醫療人員,改善全球健康。 PubMed DOI

研究評估了ChatGPT在處理細菌感染和抗生素敏感性相關問題以及臨床案例中的效果。結果顯示ChatGPT在回答理論問題表現不錯,但在臨床案例管理上有限制,例如識別抗藥機制和抗生素處方。ChatGPT可作為醫學教育和分析工具,但不宜取代專家諮詢在複雜決策中的重要性。 PubMed DOI

這項研究評估了ChatGPT在醫院藥劑師臨床問題上的回答能力。研究中提出了三十個包含病人細節的問題,兩位資深藥劑師對其回答進行評估。結果顯示,ChatGPT對77%的問題提供建議,但只有26%的回答準確且完整。進一步分析發現,22%的回答正確但不完整,30%部分正確,22%完全錯誤。此外,回答的一致性也很低,只有10%的回答能保持一致。總體來看,ChatGPT的準確性和重現性不佳,醫院藥劑師不應依賴其解答臨床問題,研究也指出方法論可能存在偏見影響結果。 PubMed DOI

這項研究評估了ChatGPT對臨床問題的回答,與人類撰寫的網站Pearls4Peers.com進行比較,重點在可用性和可靠性。研究發現,ChatGPT的回答質量有顯著差異,約14%的回答被認為不實用,13%不準確。與人類來源相比,ChatGPT在可用性和可靠性方面的表現均不佳,超過30%的情況下表現不如人類。總體來看,這顯示在臨床決策中使用ChatGPT需謹慎。 PubMed DOI

這項研究評估了ChatGPT在回答藥物相關問題的有效性,並與傳統藥物資訊資源的答案進行比較。在39個問題中,ChatGPT僅有10個(26%)的回答令人滿意,常見問題包括缺乏直接回應、準確性和完整性。雖然29%的回答有參考資料,但這些資料都是虛構的。研究結果建議醫療專業人員和患者在使用ChatGPT查詢藥物資訊時要特別小心。 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 PubMed DOI

這項研究評估了ChatGPT在醫療查詢中的可靠性,透過18個開放式問題來檢視其回應的一致性、品質和準確性。結果顯示,ChatGPT在「什麼」問題上表現較好,但在「為什麼」和「如何」問題上則不理想,出現計算錯誤和不正確的單位等問題,甚至有些引用文獻是虛構的。研究結論認為,ChatGPT目前不適合用於醫療學習者或專業人士,因為其回應不一致且參考資料不可靠,可能影響臨床決策。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在藥物諮詢服務中的表現。結果顯示,ChatGPT 3.5在80%的案例中提供了不錯的答案,而ChatGPT 4.0的表現更佳,98%的回應與醫生的回答相似或更好。不過,兩者的回應都缺乏參考文獻,有時也未能充分解決臨床相關問題。雖然ChatGPT 4.0的答案品質相當高,但在提供參考和臨床解釋方面的不足,顯示它不太適合成為臨床環境中的主要資訊來源。 PubMed DOI