原始文章

將人工智慧(AI)應用於心理健康照護,特別是飲食失調方面,顯示出提升臨床流程及協助診斷的潛力。調查顯示,59%的臨床醫師已使用AI工具,但只有18%的社區參與者曾利用這些工具。雖然對AI的協助持開放態度,但對其整合的熱情較低,且對改善客戶結果的有效性擔憂普遍。大家一致認為,缺乏訓練的情況下使用AI存在風險,並且AI無法取代人類醫師的關係技巧。總體而言,對於AI的使用仍持謹慎態度。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)在飲食失調的研究與治療上有很大的潛力,能預測疾病結果、提升診斷準確性、個性化治療方案,還能改善數據分析和研究設計。不過,目前針對AI在這領域的研究仍然不多。這篇社論強調了AI的重要性,並探討其實際應用,建議未來的研究方向。為了推動這方面的發展,《國際飲食失調期刊》計劃在2025年12月發行專題號,專注於AI在飲食失調的應用。 PubMed DOI

這篇評論指出ChatGPT在數位心理健康介入中的角色不斷演變,特別是在臨床心理學領域。隨著2023年和2024年的進步,GPT-3.5和GPT-4.0在解讀情感、識別憂鬱症及處理治療啟動因素上展現了有效性。研究顯示,對話式人工智慧能減少心理健康照護中的障礙,如污名化和可及性問題。不過,評論也提醒我們要謹慎,因為不同模型的熟練度各異,整合人工智慧進心理健康實務中既有潛力也面臨挑戰。 PubMed DOI

本研究探討人工智慧(AI)輔助的心理社會介入現狀,分析2007至2024年間在Web of Science發表的207篇文章。主要發表來源為*Journal of Medical Internet Research*,美國在研究活動中表現突出。研究主題包括*機器學習*、*心理健康*、*認知行為療法*及*個性化*,自2020年以來對AI驅動療法的興趣逐漸上升,特別是像ChatGPT的工具。這顯示未來心理健康照護將更個性化與創新,並強調了進一步研究的必要性。 PubMed DOI

人工智慧(AI)正在徹底改變精神醫學,透過數據分析提升診斷準確性和個性化治療。近期的進展包括腦電圖(EEG)和心電圖(ECG)數據分析、語音分析、自然語言處理(NLP)、血液生物標記整合及社交媒體數據應用等。EEG模型改善了對抑鬱症和精神分裂症的檢測,ECG則揭示情緒調節問題。儘管AI在精神醫療中展現潛力,但數據變異性、可解釋性和倫理問題仍是挑戰,未來需專注於創建可解釋的AI模型並遵循法規。 PubMed DOI

這項研究評估了一般醫學科實習生在識別AI生成內容不準確性方面的能力,特別是使用ChatGPT-4o。研究發現,ChatGPT-4o的準確率為80.8%,但在專業情境中僅57.0%。142名實習生識別了87個AI幻覺,平均檢測準確率只有55.0%。影響檢測錯誤的因素包括反應時間短、自我評估AI理解能力高及頻繁使用AI工具。結論強調,實習生在臨床情境中識別AI錯誤的挑戰,需加強醫學教育中的AI素養與批判性思維。 PubMed DOI

這項研究探討美國急診部門的遠程心理健康護理實施情況,並檢視人工智慧(AI)如何增強質性數據分析。279家急診部門的主任提供了改善建議,研究小組分別使用傳統方法和AI(ChatGPT 4.0)進行分析。 主要發現包括:建議分為改善遠程心理健康護理和增強整體系統兩大類,特別是簡化獲取流程。AI在分析中表現出色,識別出人類分析師未捕捉的有效代碼,且75%的編碼結果一致。 結論指出,美國急診部門在獲取遠程心理健康護理的及時性和效率上仍需顯著提升。 PubMed DOI

AI在醫療越來越常見,但不少人對AI的認識還停留在聊天機器人,忽略了它的複雜性和潛在偏見。AI雖能幫忙行政和臨床決策,但必須經過嚴格驗證,確保準確和公平。AI應該輔助醫師,而非取代,導入時也要謹慎負責,避免誤用或過度信任。 PubMed DOI

這項研究比較了ChatGPT-3.5、4和Google Gemini在辨識邊緣型人格障礙(BPD)症狀及對患者態度上的表現。結果發現,AI雖然較有同理心,但也帶有更多偏見,例如認為BPD較慢性、不信任患者,且有性別刻板印象(特別是Gemini對女性更負面)。研究呼籲在心理健康應用AI前,需提升透明度並納入專家參與訓練,以減少偏見。 PubMed DOI

美國215位臨床遺傳專業人員調查顯示,多數人對AI應用不熟,也沒受過正式訓練,但學習意願高。超過一半沒在臨床用過AI,簡單教學後才開始嘗試,主要用在臉部診斷和基因檢測解讀。聊天機器人和風險評估等AI工具用得很少。大家普遍覺得工作太多,認為需要更多AI教育來提升照護品質和減輕負擔。 PubMed DOI

這篇回顧分析36篇AI在心理健康照護的研究,發現AI工具多用於篩檢、治療輔助、監測等,像聊天機器人和語言模型。AI能提升就醫效率和參與度,也有助於症狀追蹤,但仍面臨偏見、隱私和整合等問題。文中提出「四大支柱」架構,強調AI應安全、有效且公平地應用於心理健康領域。 PubMed DOI