原始文章

在日本,消費者可無需藥師諮詢購買大多數非處方藥,這讓用藥諮詢變得更重要。研究評估了ChatGPT-3.5對22種OTC藥物的回應準確性,結果僅20.8%符合標準。2023年11月推出的新版本ChatGPT-4,經過自訂後在用藥指導上表現更佳,準確率達93.2%,顯著優於ChatGPT-3.5。研究建議透過藥物包裝說明書資訊和有效提示來自訂ChatGPT,以提升其作為臨床藥學工具的實用性。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-3.5和GPT-4在台灣國家藥師執照考試的表現。結果顯示,GPT-4的準確率為72.9%,明顯優於GPT-3.5的59.1%。在基礎科目中,GPT-4得分更高,顯示其在臨床藥學和教育上的潛力。不過,研究也提醒使用者需謹慎,因為模型仍有局限性。未來應著重改進模型的穩定性和問題設計,以更有效評估學生能力。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在藥物諮詢服務中的表現。結果顯示,ChatGPT 3.5在80%的案例中提供了不錯的答案,而ChatGPT 4.0的表現更佳,98%的回應與醫生的回答相似或更好。不過,兩者的回應都缺乏參考文獻,有時也未能充分解決臨床相關問題。雖然ChatGPT 4.0的答案品質相當高,但在提供參考和臨床解釋方面的不足,顯示它不太適合成為臨床環境中的主要資訊來源。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

這項研究評估了GPT-4在回答疼痛管理相關的臨床藥理學問題上的表現。醫療專業人員提出了有關藥物相互作用、劑量和禁忌症的問題,GPT-4的回應在清晰度、詳細程度和醫學準確性上獲得了高評價。結果顯示,99%的參與者認為回應易懂,84%認為信息詳細,93%表示滿意,96%認為醫學準確。不過,只有63%認為信息完整,顯示在藥物動力學和相互作用方面仍有不足。研究建議開發專門的AI工具,結合即時藥理數據庫,以提升臨床決策的準確性。 PubMed DOI

本研究探討了ChatGPT在長期鴉片類藥物治療中對患者教育的潛力。專家小組選定十三個常見問題,並讓GPT-4.0模擬醫生回答。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,但準確性中等,尤其在耐受性和依賴管理等技術性問題上較弱。這顯示出AI工具在患者教育中的輔助價值,但也強調了持續改進和專業訓練的必要性,醫療專業人士與AI開發者的合作對於提升教育質量至關重要。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

ChatGPT-4 回答 AMD 病患常見問題時,內容大致正確、連貫且安全,專家多給予正面評價。但還是有資訊過時或不夠完整的情況,所以目前不建議用來做 AMD 病患的日常或個人化衛教諮詢。 PubMed DOI

**重點摘要:** 這項研究比較了ChatGPT和CareNotes®對三種藥物的用藥指示。雖然ChatGPT提供的資訊大致正確,但常常不夠完整,可能會導致傷害或降低病人服藥的意願。因此,ChatGPT目前還不適合作為單一來源的病人用藥資訊參考。 PubMed DOI

這項研究發現,ChatGPT 4.0在建議第二型糖尿病藥物時,對單一藥物治療的建議最接近醫師,但治療越複雜一致性就越低。用少量範例提示能提升準確度,尤其在單一和雙重治療上,但三重治療還是不理想。總結來說,ChatGPT適合輔助簡單病例決策,但複雜治療還需加強。 PubMed DOI