原始文章

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI


站上相關主題文章列表

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

全球心理健康問題日益嚴重,現有的照護模式無法滿足需求。大型語言模型(LLMs)被視為解決方案,能在心理健康教育、評估和介入上提供幫助。本文回顧了LLMs的應用,並指出其潛在的正面影響與風險,強調需採取策略來降低風險。平衡心理健康支持的需求與LLMs的負責任開發至關重要,確保這些模型符合倫理標準,並讓有經驗的人參與開發,以減少傷害並增強其正面影響。 PubMed DOI

這項研究探討心理健康專家對大型語言模型(如ChatGPT)整合進心理健康實務的看法,透過對21位中國專業人士的訪談,發現四個主要主題: 1. **實務改革**:LLMs可提升心理健康服務的可及性與效率。 2. **科技鴻溝**:專家擔心誤導資訊及使用者風險。 3. **整合條件**:需培訓、制定指導方針,並保持透明。 4. **未來期望**:希望合理分配工作,持續改善技術。 研究顯示LLMs在心理健康領域的潛力與挑戰,為機構提供實施與管理的建議。 PubMed DOI

這項研究顯示大型語言模型(LLMs),像是GPT,在學術界,特別是醫學領域的使用越來越普遍。調查訪問了來自59個國家的226位參與者,結果發現87.6%的人對LLMs有了解,且這些人發表的論文數量較多。雖然18.7%的人使用LLMs處理語法和格式,但許多人並未在作品中說明。大多數人(50.8%)認為LLMs將對未來有正面影響,尤其在編輯和文獻回顧方面,但也有呼籲制定規範以防止濫用的聲音,強調了建立倫理指導方針的必要性。 PubMed DOI

大型語言模型在心理健康照護上有潛力,但目前研究方法不一、太依賴特定模型,證據還不夠支持單獨用LLMs治療。未來要有更嚴謹和標準的研究,才能安全有效地應用在臨床上。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

這篇回顧整理了大型語言模型在心理健康領域的應用現況,發現LLMs主要用於心理疾病篩檢、治療支援和心理健康諮詢,特別聚焦在憂鬱症偵測和自殺風險預測。整體來說,LLMs在資訊分析和回應生成上表現優於傳統方法,但不同模型各有優缺點。未來應持續技術發展並重視倫理議題。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

一份針對健康資料科學碩士生的調查發現,84%學生會用ChatGPT等大型語言模型來寫程式、debug等工作,超過一半每天都用。大家覺得LLMs很方便又省時,但也擔心太依賴、資料隱私和引用正確性。研究建議老師課程要結合LLMs,並加強學生的問題解決和批判思考能力。 PubMed DOI

澳洲和紐西蘭的醫學物理學家調查發現,很多人已經用像 ChatGPT 這類大型語言模型來提升工作效率,但品質沒明顯變好。大家最擔心資料安全、病患隱私、缺乏指引,以及資源有限時的存取和成本問題。研究呼籲應該訂出明確規範和風險管理措施,確保臨床使用安全。 PubMed DOI