原始文章

這份研究發現,生成式AI(像Claude 3.5 Sonnet)能幫助醫療人員和工程師溝通、整理需求、規劃App功能,對專案起步很有幫助。不過也有人擔心AI產出的規格太細,可能造成困擾。總結來說,AI能提升溝通效率,但不能太依賴,未來還要多做不同情境的研究。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧(GenAI),特別是ChatGPT和Bard,在數位健康介入中對文本數據質性分析的影響。研究分析了40條針對HIV患者的SMS提醒,發現GenAI與人類編碼者的主題一致性為71%,但在演繹分析中,ChatGPT降至50%,Bard為58%。雖然GenAI能顯著縮短分析時間至20分鐘,但在人類編碼者在細緻主題識別上表現更佳。研究建議結合人類洞察與AI效率,以提升質性研究的效果,並強調未來需關注AI使用的倫理問題。 PubMed DOI

這項研究評估了紐約大學朗戈健康中心使用一款私人生成式人工智慧應用程式(GenAI Studio)的情況。六個月內,超過1007名員工申請使用權限,並在研究和臨床部門中活躍使用。使用者普遍認為這個工具易於操作,主要用於寫作、編輯、摘要、數據分析和創意發想。不過,使用上也面臨提示構建的困難及API限制等挑戰。研究顯示對GenAI的興趣強烈,並強調員工培訓在醫療環境中成功實施此技術的重要性。 PubMed DOI

生成式人工智慧(AI)在醫學研究中,特別是傷口護理方面,正逐漸成為重要工具。這些大型語言模型能增強病患支持、優化治療計畫,並改善科學寫作,幫助研究人員有效瀏覽文獻,提升傷口護理管理。對非英語母語的醫療專業人員,AI可協助語法和詞彙使用,但翻譯複雜醫學情境時仍有準確性問題。AI聊天機器人也能持續監測傷口癒合,但整合時需謹慎,並考量倫理問題,避免過度依賴技術,確保病患安全與有效治療。 PubMed DOI

這項研究比較了經驗豐富的社區護理師與先進的生成式人工智慧(GenAI)在診斷準確性和臨床決策能力的表現。研究於2024年5至6月進行,114名以色列護理師參與,並針對四個醫療案例進行問卷調查。同時,收集了三個GenAI模型的回應。結果顯示,在10字限制下,護理師的準確性優於GenAI,雖然GenAI回應速度較快,但常顯得冗長。研究認為,儘管GenAI有潛力輔助護理,但目前人類醫師在臨床推理上仍具優勢,需進一步研究才能有效取代護理專業知識。 PubMed DOI

隨著全球人口老化,長期及急性後期照護系統面臨重大挑戰,特別是在提供老年人優質照護方面。健康資訊科技被視為解決方案,但在LTPAC環境中整合科技仍有許多障礙。2024年6月的國際老年人照護創新與科技高峰會中,47位專家進行了研究,透過討論小組收集質性數據,並使用人為編碼和AI分析。結果顯示科技障礙、倫理考量及病人中心照護的重要性。這項研究強調了持續探索科技在老年人照護中的應用及改善照護品質的必要性。 PubMed DOI

這項研究發現,主流AI語言模型在評估退伍軍人自殺風險和治療建議上,表現常與專業人員不同,容易高估或低估風險,且各AI模型間差異大。雖然AI有時能與人類判斷一致,但治療建議不夠穩定,像ChatGPT-4o就全都建議住院。AI目前只能當輔助工具,不能取代專業判斷,臨床應用前還需要更多研究和專家監督。 PubMed DOI

像 ChatGPT、Gemini、Claude 這類生成式 AI,能大幅簡化醫學教育裡虛擬病人模擬的製作流程,像是自動產生病人圖片、臨床報告和評量題目,幫老師省下不少時間和資源。雖然現在還有些限制,但這些 AI 進步很快,未來會讓模擬內容更真實、效率更高,也能提升學生的參與感。 PubMed DOI

這篇文章介紹一套AI多代理人系統,能大幅簡化醫療模擬情境設計,開發時間可縮短七到八成。系統分工明確,從設定目標到建立病患故事都由AI協助,介面也很直覺,讓醫療人員不用懂AI也能上手。雖然效率提升,但還是需要專業人員監督,避免AI出錯。這也凸顯跨領域合作和AI在醫療教育推廣上的價值。 PubMed DOI

生成式AI像ChatGPT未來可協助醫療文件處理,減輕醫師行政負擔並提升紀錄標準化。不過,這也帶來偏見、臨床判斷影響、醫病關係改變等倫理疑慮,且出錯時責任歸屬不明。建議應主動告知病人、醫師審查AI草稿、訂定規範及錯誤通報機制,並強化多元訓練資料與醫學教育。 PubMed DOI

這項針對超過四百萬筆Claude GenAI互動紀錄的分析發現,只有2.58%跟醫療保健有關,遠低於電腦運算等領域。醫療領域主要用在病人照護角色,但整體數位採用率還是偏低。研究也無法分辨使用者是醫療人員還是病人,顯示未來需要更好的身分辨識機制和相關指引。 PubMed DOI