原始文章

這項研究用AI工具(像是ChatGPT)分析社區會議紀錄,發現當討論用藥物治療鴉片類藥物使用障礙時,污名議題被提到的次數明顯增加。若社區有較多族群多元,特別是談到種族差異時,污名相關討論也更多。這顯示AI能幫助社區研究快速做質性分析。 PubMed DOI


站上相關主題文章列表

將人工智慧(AI)應用於心理健康照護,特別是飲食失調方面,顯示出提升臨床流程及協助診斷的潛力。調查顯示,59%的臨床醫師已使用AI工具,但只有18%的社區參與者曾利用這些工具。雖然對AI的協助持開放態度,但對其整合的熱情較低,且對改善客戶結果的有效性擔憂普遍。大家一致認為,缺乏訓練的情況下使用AI存在風險,並且AI無法取代人類醫師的關係技巧。總體而言,對於AI的使用仍持謹慎態度。 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT,如何與人類編碼結合,分析LGBTQ+患者的醫療經驗反饋。研究者希望透過這種混合方法,找出關鍵主題,如肯定性護理、醫療提供者的教育及溝通挑戰。雖然ChatGPT加速了編碼過程,但人類監督仍然對維持數據的完整性和上下文準確性非常重要。這種創新方法不僅提升了對患者反饋的分析,還提供了改善患者與醫療提供者互動的寶貴見解,並且是首個在此背景下結合AI與人類分析的研究。 PubMed DOI

這項研究評估了大型語言模型ChatGPT在系統性回顧和統合分析中的表現,特別是在脊髓刺激後情緒功能的數據上。結果顯示,ChatGPT在標題和摘要篩選的準確率為70.4%,而全文篩選的準確率為68.4%。在數據整合方面,ChatGPT的準確率達到100%。雖然在篩選任務中表現中等,但在數據整合上表現優異。研究指出,人工智慧能提升系統性回顧的效率,但仍需人類監督以確保研究質量。 PubMed DOI

這項研究探討美國急診部門的遠程心理健康護理實施情況,並檢視人工智慧(AI)如何增強質性數據分析。279家急診部門的主任提供了改善建議,研究小組分別使用傳統方法和AI(ChatGPT 4.0)進行分析。 主要發現包括:建議分為改善遠程心理健康護理和增強整體系統兩大類,特別是簡化獲取流程。AI在分析中表現出色,識別出人類分析師未捕捉的有效代碼,且75%的編碼結果一致。 結論指出,美國急診部門在獲取遠程心理健康護理的及時性和效率上仍需顯著提升。 PubMed DOI

這項研究強調中東和北非地區心理健康問題的上升,並促進相關研究的增加。研究人員利用ChatGPT-4開發AI模型,根據紐卡索-渥太華量表和賈達量表等標準進行評估。結果顯示,AI評估與人類評審者之間有中等到良好的一致性,且AI大幅縮短評估時間,每篇文章僅需1.4分鐘,而人類則需19.6分鐘。雖然AI在某些情況下會出現不準確的結果,但在專業知識輔助下,其效果會更佳。 PubMed DOI

這項研究比較了ChatGPT-3.5、4和Google Gemini在辨識邊緣型人格障礙(BPD)症狀及對患者態度上的表現。結果發現,AI雖然較有同理心,但也帶有更多偏見,例如認為BPD較慢性、不信任患者,且有性別刻板印象(特別是Gemini對女性更負面)。研究呼籲在心理健康應用AI前,需提升透明度並納入專家參與訓練,以減少偏見。 PubMed DOI

AI已深植於日常生活,像手機、社群平台和機器人。自ChatGPT問世後,專家開始關注AI在遊戲和社群上的應用,是否會造成成癮。本文探討「ChatGPT成癮」的可能性,並分析AI設計、法規(如歐盟AI法案)及個人心理,三者如何交互影響使用者體驗與風險。 PubMed DOI

這項研究開發了一個符合HIPAA規範的AI聊天機器人,讓民眾能用簡訊進行物質使用障礙篩檢和提問。系統運用自然語言處理與機器學習,提供專業資訊並加密保護健康資料,提升病患獲得SUD照護的便利性,同時兼顧醫療AI的技術與法規需求。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這項研究用YouTube留言分析鴉片類藥物混用經驗,並分辨正負面影響。團隊運用GPT-3.5 Turbo等AI技術,準確辨識高風險用藥和過量風險,F1-score高達0.95,優於傳統方法。結果顯示,AI分析社群媒體有助於更了解鴉片危機,並提升介入策略效果。 PubMed DOI