原始文章

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI


站上相關主題文章列表

ChatGPT是由OpenAI開發的生成式人工智慧,因其優秀的對話能力而受到關注,特別是在醫療領域的應用,如病人管理和臨床試驗。這篇回顧分析了2000年至2023年間在泌尿科和外科的相關文獻,使用PRISMA流程圖說明文章選擇過程,並探討了ChatGPT在外科的多種應用,包括行政任務、手術同意書、報告撰寫及醫學教育。儘管其在病人診斷和預測結果上展現潛力,但也面臨錯誤資訊、偏見及保密等挑戰,因此整合時需謹慎監管以確保病人安全。 PubMed DOI

最近生成式人工智慧的進展,特別是像ChatGPT這類工具,顯示出在醫療保健中提升決策支持、教育和病人參與的潛力。不過,必須進行徹底評估以確保其臨床使用的可靠性和安全性。2023年的一項回顧分析了41篇學術研究,強調了ChatGPT在醫學領域的有效性,並指出其表現因專科和語言環境而異。雖然展現了潛力,但仍需克服一些挑戰。總體而言,持續改進對於成功整合至醫療保健至關重要,以改善病人護理結果。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

生成式人工智慧(GenAI)在醫療服務中有潛力,尤其是在臨床環境。不過,實際臨床的複雜性需要謹慎且基於證據的方法來確保AI的安全與有效性。本研究將系統性評估四個知名的GenAI模型(Claude 2、Gemini Pro、GPT-4.0及一個自訂的GPT-4.0聊天機器人),並針對臨床微生物學和傳染病領域進行分析。評估將由兩組專業醫師進行,使用5點李克特量表來檢視回應的事實一致性、全面性、一致性及潛在醫療危害。研究將提供GenAI在臨床應用的見解,並強調制定倫理指導方針的重要性。 PubMed DOI

這項研究探討GPT生成的回應在病人入口網站的有效性,並與真實醫生的回應進行比較。研究發現,GPT的回應在同理心和可讀性上得分較高,但在相關性和準確性上差異不顯著。雖然可讀性較佳,但差異不大,讓人質疑其臨床意義。總體來說,研究建議GPT的訊息在某些方面可與醫療提供者相當,但仍需進一步研究其在醫療流程中的應用及病人對AI溝通的態度與倫理考量。 PubMed DOI

最新調查發現,泌尿科專業人員用GPTs/LLMs處理學術工作的比例大增,但實際用在臨床上的反而減少。雖然AI在學術領域越來越普及,但臨床應用還是有疑慮,顯示未來AI發展要更重視人性化設計。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這項研究發現,英國基層醫師普遍對大型語言模型應用在臨床與非臨床工作持正面看法,尤其看好即時筆記和任務管理,但最擔心病人安全。研究建議未來開發需更重視醫師需求與安全性。 PubMed DOI

生成式AI有機會提升基層醫療的效率和品質,像是自動化行政、協助教學、整合病患資料等。不過,目前還需要更多由基層醫療主導的嚴謹研究,確保對醫師和病患都安全有效。作者建議學界應主動訂定研究方向,並展開國際合作來評估Gen AI的應用。 PubMed DOI