原始文章

在基層診所用 AI 自動紀錄系統後,精神症狀的紀錄變得更詳細,但醫師實際針對憂鬱症採取行動(像新診斷、開藥或轉介)的機率反而變低。也就是說,AI 雖然能記錄更多,但不一定會讓醫師多做處置。未來還需要更多研究來評估對病人照護的影響。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)在醫療領域的應用逐漸普及,透過大型語言模型(如GPT-4)和自動語音識別技術,能有效提升醫療文檔的效率,讓醫生更專注於病人護理。然而,AI生成的內容需謹慎校對,因為可能出現錯誤或不準確的資訊。此外,隨著醫療數據的增加,患者隱私和算法偏見的風險也上升。因此,開發者應加強監管,遵循倫理指導,並改善輸出準確性。 PubMed DOI

將人工智慧(AI)應用於心理健康照護,特別是飲食失調方面,顯示出提升臨床流程及協助診斷的潛力。調查顯示,59%的臨床醫師已使用AI工具,但只有18%的社區參與者曾利用這些工具。雖然對AI的協助持開放態度,但對其整合的熱情較低,且對改善客戶結果的有效性擔憂普遍。大家一致認為,缺乏訓練的情況下使用AI存在風險,並且AI無法取代人類醫師的關係技巧。總體而言,對於AI的使用仍持謹慎態度。 PubMed DOI

人工智慧(AI)正在徹底改變精神醫學,透過數據分析提升診斷準確性和個性化治療。近期的進展包括腦電圖(EEG)和心電圖(ECG)數據分析、語音分析、自然語言處理(NLP)、血液生物標記整合及社交媒體數據應用等。EEG模型改善了對抑鬱症和精神分裂症的檢測,ECG則揭示情緒調節問題。儘管AI在精神醫療中展現潛力,但數據變異性、可解釋性和倫理問題仍是挑戰,未來需專注於創建可解釋的AI模型並遵循法規。 PubMed DOI

將大型語言模型(LLMs)整合進心理健康臨床護理中撰寫筆記的趨勢逐漸上升。我們的研究目的是建立評估LLMs在心理健康電子健康紀錄(EHRs)中使用的標準,重點在於特徵、安全性和倫理考量。雖然供應商提供了數據保護和病人功能等資訊,但對於LLMs的訓練方法和偏見修正等關鍵細節卻缺乏透明度,這引發了倫理上的擔憂。雖然LLMs有助於減輕文書負擔,但仍需改善透明度和標準化,以確保其安全性和臨床護理的高標準。 PubMed DOI

這項研究探討美國急診部門的遠程心理健康護理實施情況,並檢視人工智慧(AI)如何增強質性數據分析。279家急診部門的主任提供了改善建議,研究小組分別使用傳統方法和AI(ChatGPT 4.0)進行分析。 主要發現包括:建議分為改善遠程心理健康護理和增強整體系統兩大類,特別是簡化獲取流程。AI在分析中表現出色,識別出人類分析師未捕捉的有效代碼,且75%的編碼結果一致。 結論指出,美國急診部門在獲取遠程心理健康護理的及時性和效率上仍需顯著提升。 PubMed DOI

這項研究探討病人自報結果量表(PROMs),特別是PHQ-9,對門診抑鬱症治療紀錄質量的影響。研究分析了18,000份臨床筆記,重點在2019至2024年期間的就診紀錄。主要發現顯示,參與者平均年齡46.3歲,大多數為女性,PHQ-9平均分數較低,只有4.8%符合中度或以上的抑鬱症狀。雖然大型語言模型(LLM)能提供一些見解,但在移除實際分數後,準確性不佳,顯示依賴PROMs可能導致精神症狀紀錄不夠全面。 PubMed DOI

**重點整理:** AI 書記可以幫助減輕醫師在醫療紀錄上的負擔,但使用這些工具同時也帶來重要的法律和倫理議題。家庭醫師在實際使用 AI 書記前,必須了解這些工具的運作方式、取得病人同意、確保資料隱私,並且確認紀錄的正確性,以及符合相關法律和指引。 PubMed DOI

大型語言模型的AI(像環境智慧)已用在神經科學領域,能自動化臨床紀錄,減輕醫師負擔、提升照護品質。但也有錯誤、偏見等風險,還可能讓醫護產生新型職業倦怠,特別是在癲癇照護這種需精確紀錄的領域。要安全有效運用,還是需要人類監督、持續研究、法規和多方合作。 PubMed DOI

這篇回顧分析36篇AI在心理健康照護的研究,發現AI工具多用於篩檢、治療輔助、監測等,像聊天機器人和語言模型。AI能提升就醫效率和參與度,也有助於症狀追蹤,但仍面臨偏見、隱私和整合等問題。文中提出「四大支柱」架構,強調AI應安全、有效且公平地應用於心理健康領域。 PubMed DOI

這項研究提出一套完整評估架構,專門檢測 AI 驅動的環境數位紀錄工具,協助醫師減輕紀錄負擔。架構結合人工和自動化評分,評估轉錄、說話者辨識及病歷品質。實測顯示工具在流暢度和清晰度表現佳,但事實正確性和新藥物紀錄仍有待加強,顯示導入前需嚴謹評估與治理。 PubMed DOI