原始文章

這項研究探討了人工智慧,特別是ChatGPT,如何與人類編碼結合,分析LGBTQ+患者的醫療經驗反饋。研究者希望透過這種混合方法,找出關鍵主題,如肯定性護理、醫療提供者的教育及溝通挑戰。雖然ChatGPT加速了編碼過程,但人類監督仍然對維持數據的完整性和上下文準確性非常重要。這種創新方法不僅提升了對患者反饋的分析,還提供了改善患者與醫療提供者互動的寶貴見解,並且是首個在此背景下結合AI與人類分析的研究。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧(GenAI),特別是ChatGPT和Bard,在數位健康介入中對文本數據質性分析的影響。研究分析了40條針對HIV患者的SMS提醒,發現GenAI與人類編碼者的主題一致性為71%,但在演繹分析中,ChatGPT降至50%,Bard為58%。雖然GenAI能顯著縮短分析時間至20分鐘,但在人類編碼者在細緻主題識別上表現更佳。研究建議結合人類洞察與AI效率,以提升質性研究的效果,並強調未來需關注AI使用的倫理問題。 PubMed DOI

這項研究探討醫療專業人員與公眾對於在臨床中使用ChatGPT的看法。研究指出,成功實施ChatGPT不僅依賴技術,還需考量醫療提供者和公眾的態度。透過分析3,130條評論,研究發現醫療人員對其效率表示肯定,但對倫理和責任有疑慮;而公眾則欣賞其可及性和情感支持,但擔心隱私和錯誤資訊。為了有效整合ChatGPT,需針對這些不同觀點進行調整,提升可靠性並明確其在醫療中的角色。 PubMed DOI

這項研究探討了ChatGPT在醫學教育質性研究中進行主題分析的應用。由於質性分析複雜且耗時,研究評估了ChatGPT的有效性並與人類分析師比較。結果顯示,ChatGPT在大多數領域表現良好,但在可轉移性和分析深度上有所不同。六個關鍵主題包括:與人類結果的相似性、正面印象、數據連結清晰、提示影響、缺乏背景描述及理論基礎。雖然ChatGPT能有效識別關鍵數據,但深入分析仍需人類參與以增強深度。 PubMed DOI

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

這篇論文探討如何利用大型語言模型(LLMs),像是ChatGPT-4,來改善醫療溝通,讓病人能選擇喜歡的溝通風格。研究基於Emanuel和Emanuel的四種溝通模式:父權式、資訊式、詮釋式和審議式,旨在滿足病人的需求與偏好。不過,論文也提到潛在風險,如可能加深偏見及LLMs的說服性,可能導致病人與醫療提供者之間的互動出現意外操控。 PubMed DOI

這項研究探討GPT生成的回應在病人入口網站的有效性,並與真實醫生的回應進行比較。研究發現,GPT的回應在同理心和可讀性上得分較高,但在相關性和準確性上差異不顯著。雖然可讀性較佳,但差異不大,讓人質疑其臨床意義。總體來說,研究建議GPT的訊息在某些方面可與醫療提供者相當,但仍需進一步研究其在醫療流程中的應用及病人對AI溝通的態度與倫理考量。 PubMed DOI

這項研究用 ChatGPT 來自動分析產科醫療訪談內容,讓原本很花時間的質性編碼流程變得更有效率。ChatGPT 的編碼準確率超過八成,還能省下八成以上的時間。不過,AI 在主題分析上雖然有潛力,但準確性、偏誤和隱私等問題還需要再加強和研究。 PubMed DOI

這項研究用 ChatGPT 來自動分析產科醫療人員的訪談內容,讓原本很花時間的質性編碼流程變得更有效率。ChatGPT 的編碼準確率超過八成,還能省下八成以上的時間。不過,準確性、偏誤和隱私等問題還沒完全解決,未來還需要更多研究來克服這些挑戰。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

ChatGPT 可以用來做健康研究的質性資料分析,而且它的分析流程跟傳統相反,會先抓大主題再細分。文章介紹三步驟:「先問大方向問題、再問細節、最後檢查資料支持度」,並用照顧認知障礙者的焦點團體做示範。這種方法可能會改變傳統質性分析的做法。 PubMed DOI