原始文章

生成式人工智慧(AI)將對法醫精神醫學帶來重大影響,既有機會也有挑戰。特別是有可能有人利用AI,如ChatGPT,來學習和模擬精神病症狀,尤其在瘋狂辯護的情況下。一項研究顯示,ChatGPT 3.5能理解精神病症狀並提供實用建議,可能被用來操控心理健康系統以謀取私利。這提醒法醫精神科醫師需了解AI的發展及其對偽病評估的影響,儘管目前技術仍有局限。 PubMed DOI


站上相關主題文章列表

這項研究探討了AI聊天機器人對神經心理評估的安全風險,特別是ChatGPT-3和Bard(現稱Gemini)的表現。研究顯示,這些聊天機器人的回應準確率不高,2023年為35-42%,2024年降至16-28%;而對安全的威脅評級也相當可觀。ChatGPT-3的威脅評級高於Bard/Gemini,但準確性有所改善。值得注意的是,兩者對偽裝建議的倫理反對意見隨時間增加。總體來看,AI聊天機器人對PVT的安全威脅大於傳統搜索引擎。 PubMed DOI

心理疾病是全球健康的重要議題,生成式人工智慧(GAI)在提升心理健康護理上展現潛力,但相關研究仍有限。本次綜述回顧了2013至2023年的文獻,分析了144篇文章,找出六個GAI的主要應用,包括心理疾病檢測、諮詢支持等。大多數研究集中在治療和諮詢上,特定心理健康狀況的關注較少。雖然像ChatGPT的工具被廣泛使用,但其在心理疾病檢測的有效性仍需進一步研究。GAI應輔助專業人員,而非取代,並需重視倫理問題以解決心理健康護理的挑戰。 PubMed DOI

這項研究系統性回顧了生成式人工智慧在精神科和心理健康領域的應用,強調語言在診斷和治療中的重要性,並指出其潛力改變這個領域。研究人員從三個資料庫篩選出40篇主要在2023年發表的文章。結果顯示,雖然生成式人工智慧如ChatGPT在提升心理健康方面有潛力,但大多數研究集中於一般應用,特定心理疾病的探討較少,物質使用障礙是最常見的主題。儘管表現良好,仍需注意安全和倫理問題,未來研究應改善方法論透明度,並納入使用者意見。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是GPT-4,生成心理動力學報告的潛力,幫助個人更好理解自己。研究分為三個步驟: 1. **問卷開發**:參與者回答20個問題,探討人際關係困擾,包含14個GPT-4生成的問題及6個固定的父母關係問題。 2. **專家評估**:七位精神科教授評估AI生成報告的質量及幻覺風險,並與專家推論進行比較。 3. **參與者滿意度**:參與者用李克特量表評價報告的清晰度、洞察力等。 結果顯示,AI報告質量與專家相當,參與者滿意度高,顯示AI可成為心理動力學解釋的有價值工具。 PubMed DOI

這篇系統性回顧發現,生成式AI像ChatGPT在心理健康領域有潛力,但目前在診斷、文化敏感度和情感互動上還有不少限制。多數研究評估方式較簡單,無法全面反映AI實力。使用者對信任度和情感連結也有疑慮。未來需要更進階的評估和長期研究,才能真正發揮AI在心理健康照護的價值。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

生成式 AI 像 ChatGPT 能幫司法精神科醫師減輕文書和病歷摘要的負擔,但也有隱私、偏見和被濫用假裝症狀的風險。相關倫理和法律規範正逐步建立,醫師應積極參與,確保 AI 安全、有效地應用在司法精神科領域。 PubMed DOI

這篇文章討論生成式 AI(像 ChatGPT)在澳紐精神科醫師訓練的應用,包含學員選拔和評量。雖然 AI 有助提升效率,但在病患資料的倫理和隱私上仍有限制。RANZCP 應調整評量方式,因為完全禁止 AI 並不實際。隨著 AI 快速進步,訓練內容也要持續更新,才能跟上潮流。 PubMed DOI

這項研究發現,GPT-4o能有效從法醫精神科報告中擷取並摘要臨床與非臨床資訊,雖然整合關鍵細節仍有困難,但顯示AI有助於半自動化資料整理,未來有望推動大型研究資料庫的建立。 PubMed DOI