原始文章

生成式人工智慧(AI)將對法醫精神醫學帶來重大影響,既有機會也有挑戰。特別是有可能有人利用AI,如ChatGPT,來學習和模擬精神病症狀,尤其在瘋狂辯護的情況下。一項研究顯示,ChatGPT 3.5能理解精神病症狀並提供實用建議,可能被用來操控心理健康系統以謀取私利。這提醒法醫精神科醫師需了解AI的發展及其對偽病評估的影響,儘管目前技術仍有局限。 PubMed DOI


站上相關主題文章列表

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是GPT-4,生成心理動力學報告的潛力,幫助個人更好理解自己。研究分為三個步驟: 1. **問卷開發**:參與者回答20個問題,探討人際關係困擾,包含14個GPT-4生成的問題及6個固定的父母關係問題。 2. **專家評估**:七位精神科教授評估AI生成報告的質量及幻覺風險,並與專家推論進行比較。 3. **參與者滿意度**:參與者用李克特量表評價報告的清晰度、洞察力等。 結果顯示,AI報告質量與專家相當,參與者滿意度高,顯示AI可成為心理動力學解釋的有價值工具。 PubMed DOI

這項研究探討了生成式人工智慧,特別是GPT-4,在識別和重新框架中和技術(ToN)的能力。這些技術是犯罪者用來合理化偏差行為的辯解方式。研究指出AI工具的機會與風險,特別是濫用的潛在風險。結果顯示,GPT-4在識別ToN方面精確度高,且能有效重新表達句子,保持完整性,顯示其在犯罪學的應用潛力。研究旨在評估AI在理解犯罪動態及發展介入策略上的好處與挑戰。 PubMed DOI

這項研究發現,主流AI語言模型在評估退伍軍人自殺風險和治療建議上,表現常與專業人員不同,容易高估或低估風險,且各AI模型間差異大。雖然AI有時能與人類判斷一致,但治療建議不夠穩定,像ChatGPT-4o就全都建議住院。AI目前只能當輔助工具,不能取代專業判斷,臨床應用前還需要更多研究和專家監督。 PubMed DOI

這篇系統性回顧發現,生成式AI像ChatGPT在心理健康領域有潛力,但目前在診斷、文化敏感度和情感互動上還有不少限制。多數研究評估方式較簡單,無法全面反映AI實力。使用者對信任度和情感連結也有疑慮。未來需要更進階的評估和長期研究,才能真正發揮AI在心理健康照護的價值。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

生成式 AI 像 ChatGPT 能幫司法精神科醫師減輕文書和病歷摘要的負擔,但也有隱私、偏見和被濫用假裝症狀的風險。相關倫理和法律規範正逐步建立,醫師應積極參與,確保 AI 安全、有效地應用在司法精神科領域。 PubMed DOI

這篇文章討論生成式 AI(像 ChatGPT)在澳紐精神科醫師訓練的應用,包含學員選拔和評量。雖然 AI 有助提升效率,但在病患資料的倫理和隱私上仍有限制。RANZCP 應調整評量方式,因為完全禁止 AI 並不實際。隨著 AI 快速進步,訓練內容也要持續更新,才能跟上潮流。 PubMed DOI

這項研究發現,GPT-4o能有效從法醫精神科報告中擷取並摘要臨床與非臨床資訊,雖然整合關鍵細節仍有困難,但顯示AI有助於半自動化資料整理,未來有望推動大型研究資料庫的建立。 PubMed DOI