原始文章

**重點摘要:** 這項研究比較了ChatGPT和CareNotes®對三種藥物的用藥指示。雖然ChatGPT提供的資訊大致正確,但常常不夠完整,可能會導致傷害或降低病人服藥的意願。因此,ChatGPT目前還不適合作為單一來源的病人用藥資訊參考。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

這項研究調查了醫療病房中出院處方的潛在藥物間相互作用(pDDIs),並比較了Micromedex與AI模型ChatGPT-4.0的有效性。研究涵蓋301名患者,發現60.13%的患者有pDDIs,平均每位患者有3.17個。ChatGPT-4.0在識別pDDIs方面準確率達100%,但在嚴重性和發作時間的準確率較低。多重用藥顯著增加pDDIs的風險。雖然ChatGPT-4.0顯示潛力,但醫療專業人員仍需保持警覺以管理藥物相互作用。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在藥物諮詢服務中的表現。結果顯示,ChatGPT 3.5在80%的案例中提供了不錯的答案,而ChatGPT 4.0的表現更佳,98%的回應與醫生的回答相似或更好。不過,兩者的回應都缺乏參考文獻,有時也未能充分解決臨床相關問題。雖然ChatGPT 4.0的答案品質相當高,但在提供參考和臨床解釋方面的不足,顯示它不太適合成為臨床環境中的主要資訊來源。 PubMed DOI

這項研究評估了ChatGPT在回答過敏學問題的表現,顯示它對於等待專科門診的病患來說是一個方便的資源。研究針對120個問題進行評估,結果顯示ChatGPT的整體準確性不錯(平均4.1分),但在兒科問題的完整性和人性化程度上較低。特別是與兒童食物過敏相關的錯誤,可能會造成生命危險。這強調了ChatGPT在提供過敏學建議上的局限性,並建議諮詢專業醫師的重要性。調整AI工具以適應特定醫療情境,可能會提升其臨床有效性。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

**重點摘要:** 這項研究比較了由兩種AI工具——ChatGPT和Gemini——所產生的六種抗糖尿病藥物的病人資訊指南。這些指南被評估了可讀性、可靠性以及相似度。結果顯示,兩種AI產生的指南在這些方面沒有顯著差異,表示這兩個工具都能產出品質相當的病人衛教資料。 PubMed DOI

研究發現,ChatGPT雖然常能正確回答初階麻醉學問題,但有時會出現重大錯誤,像是引用錯誤、混淆概念或受偏見影響。這些錯誤若發生在臨床上,可能會有風險。因此,ChatGPT的答案沒經專家審查前,不適合直接用在醫學教育。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答大腸鏡檢查前常見問題時,內容準確且符合醫學指引,有潛力成為病人衛教的好幫手。不過,還需要更多實際測試和不同問題的驗證,才能確定它的實用性。 PubMed DOI

這項研究發現,ChatGPT 4.0在建議第二型糖尿病藥物時,對單一藥物治療的建議最接近醫師,但治療越複雜一致性就越低。用少量範例提示能提升準確度,尤其在單一和雙重治療上,但三重治療還是不理想。總結來說,ChatGPT適合輔助簡單病例決策,但複雜治療還需加強。 PubMed DOI