原始文章

這項研究探討了使用關鍵分析過濾器(CAF)系統,來提升一個針對精神分裂症教育的聊天機器人可靠性。考量到患者的認知挑戰,研究團隊整合了大型語言模型(LLMs),如GPT-4,來改善教育效果。為了解決LLMs的不穩定性,研究人員開發了一個聊天機器人,能夠訪問專為患者和照顧者設計的手冊,並透過CAF進行回應的批判性評估。結果顯示,啟用CAF後,67%的回應符合標準,顯示CAF能有效提升心理健康教育的安全性與有效性。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs),特別是GPT-4,如何生成符合病人和醫師需求的醫療建議回應。研究團隊透過人員參與的迭代過程,優化提示,提升回應質量。經過三次迭代後,臨床醫師對草擬回應的接受度從62%提升至84%,且74%的回應被評為「有幫助」。病人也認為優化後的回應在語氣和質量上更佳,76%的病人無法分辨人類與LLM生成的回應。研究顯示,根據醫師和病人的反饋來精煉提示,能有效生成有用的醫療建議。 PubMed DOI

這項研究開發了一個聊天機器人,目的是協助從全人口基因篩檢中獲得正面結果,並運用大型語言模型。隨著基因檢測需求上升,這項研究希望透過科技創新來解決專家短缺的問題。 聊天機器人透過三步驟的提示工程創建,並在兩個假設情境中進行評估,專家們根據五點量表對八個標準進行打分。結果顯示,總分為3.88,語調和可用性最佳(各4.25分),但程式準確性最低(3.25分)。未來研究將專注於改進提示和設計混合型聊天機器人,以提升基因服務的品質。 PubMed DOI

這項研究指出,像 ChatGPT 這樣的 AI 平台在病人教育,特別是甲狀腺癌管理中越來越重要。研究人員設計了 50 個問題,評估 ChatGPT 的回答在準確性、全面性、人性化、滿意度和可讀性等方面的表現。結果顯示,使用「統計數據和參考文獻」的提示能產生最準確的答案,而「六年級水平」的提示則讓內容更易懂。不過,沒有特定提示的回答通常較複雜。雖然大部分引用自醫學文獻,但仍有少部分錯誤資訊,因此監督 AI 內容的準確性非常重要。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

這項研究探討了人工智慧在敘事人格評估中的潛力,特別是使用社會認知與物件關係量表 - 總體評分法(SCORS-G)。研究發現,透過精煉的提示,AI聊天機器人能更準確地評估敘事,尤其在總體層面上表現良好。專家們改進的提示在評估者間的可靠性和與既定評分的一致性上優於基本提示。總體來說,這顯示AI能有效減輕臨床醫生和研究人員在使用SCORS-G時的時間和資源負擔,並提出未來研究的方向。 PubMed DOI

大型語言模型(LLMs)在醫學知識的教育、訓練和治療上有顯著進展,但早期研究顯示其不穩定性和潛在的有害輸出。為了解決這些問題,我們提出了一個經過驗證的數據集來訓練LLMs,並設計了一個演員-評論者的提示協議。在這個框架中,治療師生成初步回應,然後由監督者進行精煉。盲驗證研究顯示,LLM的評分常高於適當的治療師回應,顯示其符合專家標準,為安全整合LLM技術於醫療應用提供了基礎。 PubMed DOI

大型語言模型(LLMs)如ChatGPT在醫療領域的應用引發了關於其改善醫療品質的討論。雖然這些模型能通過醫學考試,但作為自我診斷工具的有效性仍需評估。研究使用EvalPrompt方法測試ChatGPT在自我診斷中的表現,結果顯示其正確率僅31%,且專家與非專家的評估一致性低。儘管在缺失信息的情況下仍有61%的回應被認為正確,但整體表現未達及格標準。研究強調了LLMs的局限性,並呼籲需建立更全面的自我診斷數據集,以提升其在醫療中的可靠性。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI