原始文章

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI


站上相關主題文章列表

這項研究指出大型語言模型(LLMs)在精神醫學研究中不僅能提升臨床應用,還能改善文獻回顧、研究設計等方面的效率。不過,仍面臨偏見、計算需求、數據隱私和內容可靠性等挑戰。這篇回顧強調謹慎監督、嚴格驗證及遵循倫理標準的重要性,期望透過解決這些問題,最大化LLMs的優勢,並推動精神醫學研究的進展。 PubMed DOI

這項研究探討大型語言模型(LLMs)如ChatGPT與傳統搜尋引擎如Google在獲取健康資訊的使用情況。調查顯示,95.6%的人使用搜尋引擎查詢健康問題,但只有32.6%的人使用LLMs。男性、黑人和亞裔更常使用LLMs,且健康狀況較好和技術熟練度高的人也較常使用。 後續調查中,大多數LLM使用者仍偏好搜尋引擎,認為LLMs的實用性不如搜尋引擎,但對其負面感受較少,認為LLMs更具人性化。總體來看,搜尋引擎仍是主要工具,但LLMs的正面評價顯示其未來增長潛力。 PubMed DOI

大型語言模型在心理健康照護上有潛力,但目前研究方法不一、太依賴特定模型,證據還不夠支持單獨用LLMs治療。未來要有更嚴謹和標準的研究,才能安全有效地應用在臨床上。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

這篇回顧整理了大型語言模型在心理健康領域的應用現況,發現LLMs主要用於心理疾病篩檢、治療支援和心理健康諮詢,特別聚焦在憂鬱症偵測和自殺風險預測。整體來說,LLMs在資訊分析和回應生成上表現優於傳統方法,但不同模型各有優缺點。未來應持續技術發展並重視倫理議題。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

一份針對健康資料科學碩士生的調查發現,84%學生會用ChatGPT等大型語言模型來寫程式、debug等工作,超過一半每天都用。大家覺得LLMs很方便又省時,但也擔心太依賴、資料隱私和引用正確性。研究建議老師課程要結合LLMs,並加強學生的問題解決和批判思考能力。 PubMed DOI

澳洲和紐西蘭的醫學物理學家調查發現,很多人已經用像 ChatGPT 這類大型語言模型來提升工作效率,但品質沒明顯變好。大家最擔心資料安全、病患隱私、缺乏指引,以及資源有限時的存取和成本問題。研究呼籲應該訂出明確規範和風險管理措施,確保臨床使用安全。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI

調查發現,許多生物統計學家已用大型語言模型(LLMs)提升程式撰寫和寫作效率,但因錯誤和可靠性問題,仍需謹慎驗證。多數人希望有系統訓練和實用指引。研究也提出八大原則,協助生物統計學家負責任且有效運用LLMs。 PubMed DOI