原始文章

本研究探討了ChatGPT推出後,使用者與MIBot(幫助戒煙的聊天機器人)互動的變化。參與者分為兩組:一組在ChatGPT發布前互動,另一組則在六個月後互動。結果顯示,後者對MIBot的滿意度顯著下降,尤其在同理心方面。不過,對ChatGPT熟悉的使用者提供了更長的回應,並在戒煙意願上有更大提升。這顯示先進AI技術改變了使用者期望,開發者需隨之調整。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

這項研究評估了三款 ChatGPT 聊天機器人提供的戒菸資訊可靠性,包括世界衛生組織的 Sarah、BeFreeGPT 和 BasicGPT。研究發現,這些機器人平均遵循了 57.1% 的指導方針,其中 Sarah 表現最佳(72.2%),而 BeFreeGPT 和 BasicGPT 分別為 50% 和 47.8%。大部分回應清晰(97.3%)並建議尋求專業諮詢(80.3%),但對尼古丁替代療法(52.7%)和社會支持(55.6%)的建議不足。約 22% 的回應含有錯誤資訊,特別是關於非常規戒菸方法。研究建議改進聊天機器人的指導以彌補這些不足。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

生成式 AI 聊天機器人如 ChatGPT 逐漸受到關注,並引發了「ChatGPT 成癮」的討論。雖然有研究提出量表來衡量這種成癮,但專家提醒,若沒有明確證據顯示使用會造成負面影響,就不應輕易標籤為成癮。目前的研究尚未提供強有力的支持,因此過度病理化這種行為可能導致不必要的治療和監管。適度且有意識地使用聊天機器人仍然是有益的。 PubMed DOI

這項研究發現,當 HIV 諮詢問題加入種族、性別或性傾向等社會背景時,ChatGPT 給不同族群的建議會有落差,部分回應不夠完整,也缺乏文化敏感度和相關資源。這顯示 AI 回應有偏見,未來需納入更多元資料,才能確保公共衛生資訊的公平性。 PubMed DOI

這項初步研究測試用GPT-4打造的聊天機器人MICA,運用動機式晤談技巧協助18到25歲年輕人討論酒精使用。結果顯示MICA安全無虞,經調整後MI技巧表現更好,使用者也覺得很方便。MICA能有效促進行為改變的討論,但還需要更大規模的研究來確認對飲酒行為的實際影響。 PubMed DOI

這項研究發現,護理學生如果有用ChatGPT來訓練,不只解決問題的能力更好,對AI的態度也比較正面,專業能力和整體滿意度都比傳統教學高。結果顯示,把ChatGPT融入護理教育,真的有助於提升學生的表現和學習態度。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

ChatGPT 回答疫苗猶豫問題時,內容大致正確且符合 CDC 指引,也能讓人安心。不過,細節像年齡建議、疫苗選擇或文化宗教疑慮講得比較少。若能補強這些面向,ChatGPT 有潛力成為提升疫苗信心的好幫手。 PubMed DOI