原始文章

這項研究開發了一個用大型語言模型打造的聊天機器人,專門幫助年長者練習正念。研究先讓15位年長者用一般正念App,收集他們對語音、個性、互動性和操作便利的意見,再用這些回饋微調ChatGPT,設計出AI正念教練,並邀請年長者參與評估。 PubMed DOI


站上相關主題文章列表

這項研究探討了HoMemeTown Dr. CareSam的開發與評估,這是一個支援英語和韓語的心理健康聊天機器人。研究針對20位18到27歲的韓國年輕人進行,機器人提供感恩日記和風險檢測等功能。結果顯示用戶在積極性、支持和同理心方面滿意度高,但在專業性和內容複雜性上仍需改進。雖然該聊天機器人展現潛力,但小樣本和短期研究顯示需進一步擴大臨床試驗以提升其有效性。 PubMed DOI

這項研究探討了PDC30聊天機器人的開發與評估,這是一個專為失智症照顧者設計的生成式AI工具。它基於GPT-4o模型,提供根據《30天正向失智症照顧指南》的建議。與其他聊天機器人相比,PDC30在情感情境中提供了更具幫助性的回應。 在兩週的試用中,21位家庭照顧者覺得PDC30使用友好,建議易懂且有幫助,並表示高度滿意,願意推薦給他人。反饋分析顯示出有幫助性、可及性及對AI的正面態度轉變。整體而言,研究建議對話式AI能有效增強失智症照顧者的支持。 PubMed DOI

研究比較六款聊天機器人回答中年健康問題的表現,發現 Meta AI 答案最準確、最有條理,Perplexity 最容易閱讀。整體來說,這些聊天機器人對中年健康教育有幫助,但表現有差異,選擇合適的工具很重要。 PubMed DOI

這項初步研究測試用GPT-4打造的聊天機器人MICA,運用動機式晤談技巧協助18到25歲年輕人討論酒精使用。結果顯示MICA安全無虞,經調整後MI技巧表現更好,使用者也覺得很方便。MICA能有效促進行為改變的討論,但還需要更大規模的研究來確認對飲酒行為的實際影響。 PubMed DOI

這項研究發現,現有的大型語言模型雖然能回答更年期健康問題,但目前的評估方式對於敏感醫療議題還不夠完善。作者建議應發展更專業且重視倫理的評估標準,確保AI產出的醫療資訊安全又可靠。 PubMed DOI

這項研究發現,ChatGPT-4在調整和執行常見的老年人心理健康問卷時,表現和傳統方法有中到高度的一致性與可靠性。顯示ChatGPT-4有機會成為心理健康評估的輔助工具,但還需要更多研究來驗證其廣泛應用的可行性。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

Welzijn.AI 是專為年長者設計的心理健康監測工具,開發時廣納病患、醫師、研究人員等意見。研究發現它能減少孤獨、分析語言,但也有隱私疑慮和操作難度。設計重點包括同理心、多元互動和用戶支援。這些成果有助於打造更負責任、貼近需求的 AI 工具,提升年長者福祉。 PubMed DOI

這項研究發現,ChatGPT在急性精神科危機的德語諮詢中,獲得「有幫助」和「適切」等正面評價,但在「真實感」上表現較差,尤其是精神病案例。多數專業人員認為LLM未來在醫療有潛力,但對其風險仍有疑慮,需更多實際病人研究才能安全應用。 PubMed DOI