原始文章

研究分析10萬多則Reddit癌症貼文,發現約19%有醫療不信任,主要針對醫護人員。原因包括病患覺得被忽略、照護不專業和溝通不良,這些貼文常帶有焦慮或沮喪情緒。加強傾聽、提升照護品質和溝通,有助改善癌症醫療信任。 PubMed DOI


站上相關主題文章列表

針對英國住院醫師薪資協議的討論,分析了subreddit DoctorsUK上的評論,發現意見與官方投票結果有明顯差異。在1,297條評論中,只有548條被納入研究,230條表達投票意向,結果顯示26.1%支持協議,73.9%反對,而正式投票中66%選擇接受。情感分析顯示三篇帖文情感偏負面,且統計檢定顯示意見與投票結果有顯著差異。研究指出,Reddit的匿名性可能影響討論內容,並呼籲對匿名論壇意見的可靠性進行檢視。 PubMed DOI

這項研究強調了解患者使用抗憂鬱藥物的經驗對提升依從性及以患者為中心的照護的重要性。患者的不依從性常因副作用、依賴性及對藥物效果的懷疑而影響。透過分析AskaPatient和Reddit等平台的討論,發現59.3%的對話表達中立情感,38.4%為負面情緒,主要是恐懼和悲傷。討論中「心理健康與人際關係」最常被提及,顯示對心理健康的關注。這些見解可協助醫療提供者制定個人化治療策略,提升患者滿意度及依從性,達到更具同理心的照護。 PubMed DOI

這項研究探討使用者對大型語言模型(LLM)驅動的聊天機器人(如ChatGPT)提供的健康資訊的看法,與傳統線上資源相比。結果顯示,98%的參與者仍主要依賴搜尋引擎尋找健康資訊,只有21.2%使用聊天機器人。大多數人尋求健康狀況資訊,但對於用藥建議和自我診斷的需求較低。雖然LLM聊天機器人逐漸受到年輕族群的青睞,但使用者在遵循建議時仍較為謹慎。研究強調提高準確性和透明度對於健康資訊的安全性至關重要。 PubMed DOI

這項研究用AI和自然語言處理分析超過60萬則乳癌和皮膚癌患者訊息,找出他們關心的議題並產生新研究主題。團隊用ChatGPT-4o自動化解讀和摘要訊息,再由專業醫師評分主題的新穎性和意義。結果顯示,AI能有效提出貼近患者需求的癌症研究主題,有助於縮短研究和實際需求的差距。 PubMed DOI

大型語言模型在腫瘤醫學應用越來越多,能提升資訊取得效率、減輕醫師負擔,但準確性和幻覺問題仍讓人擔心,需醫師監督。現有研究多聚焦於問答、診斷和治療管理,雖然相關技術持續進步,但在廣泛臨床應用前,還需更多驗證和提升準確性。 PubMed DOI

這項研究分析近7,000則南韓癌症社群貼文,發現年長癌症患者及照顧者常有焦慮、憂鬱,尤其化療和睡眠問題最影響情緒。研究整理出七大主題,像是治療選擇和家庭壓力,提醒照護時要兼顧身心需求。未來可用大型語言模型深入分析,但也要注意資料倫理。 PubMed DOI

這份研究發現,使用者是否信任 DeepSeek 這類 AI 醫療平台,會直接影響他們的採用意願。操作簡單、實用性高會增加信任感,但風險感知則會降低意願。多數人願意接受 AI 協助,只要醫師能把關。研究也提醒,信任和風險的影響有「飽和點」,不會無限放大。未來還要考慮隱私、文化和長期使用經驗。 PubMed DOI

這項研究發現,LLM像ChatGPT-4o能快速抓到結構和後勤主題,但人類分析師更能掌握情感和心理細節。結合兩者分析,有助提升健康研究的廣度和深度。作者建議未來可採用這種混合方式。 PubMed DOI

這項研究訪談24位中國腫瘤科醫師,發現他們認為AI聊天機器人能幫助病患獲取資訊、管理慢性病,但也擔心責任歸屬、錯誤資訊、缺乏個人化、隱私及病患準備度等問題。醫師認為,AI有機會改善或傷害醫病關係。研究建議,若要安全導入,需明確政策、完善測試、機構支持及教育訓練。 PubMed DOI

這項研究發現,GPT-4在分析癌症病患與醫療人員的對話內容時,和人類專家有高度到中度的一致性,像是判斷有無討論症狀、誰先提起、以及建議內容等。雙方意見分歧的情況不多,且有詳細分類。結果顯示,LLM有潛力協助提升醫療溝通與照護品質。 PubMed DOI