LLM 相關三個月內文章 / 第 144 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較ChatGPT和Naver CLOVA X在用韓文回答癌症問題時的表現。三位腫瘤科醫師評分後發現,兩者的答案品質差不多,但CLOVA X的回答內容稍微複雜一點。整體來說,這兩款AI在韓文癌症諮詢上的表現相近。 相關文章 PubMed DOI 推理

研究團隊開發了一套經過微調的大型語言模型(LLM),能自動把CT導引下的介入放射報告分成四種技術類別。這個模型分類的準確率高達0.979,超越人工判讀者(0.922–0.940),而且處理速度快上50倍。結果顯示,LLM能有效又精準地分類放射科報告,大幅減少人工整理的工作量。 相關文章 PubMed DOI 推理

這項研究提出MOFsyn AI框架,結合大型語言模型,能用自然語言優化MOF合成流程。應用於Ni@UiO-66(Ce)時,MOFsyn找到更有效的分步還原法,讓催化劑活性鎳比例提升兩倍,並在溫和條件下達到高轉化率與選擇性。此技術讓非程式設計背景的人也能輕鬆開發MOF材料。 相關文章 PubMed DOI 推理

這篇文章說明AI能幫助進階護理師提升診斷準確率和工作效率,也能改善病人照護和減少行政負擔。不過,AI在醫療應用前,還要先克服倫理、資料品質和偏見等問題。 相關文章 PubMed DOI 推理

這項研究發現,患有多重慢性病的兒童及其照顧者在社群媒體上的貼文,九成以上都帶有負面情緒,尤其以悲傷和恐懼為主。正面情緒很少,通常和醫療照護經驗有關。疫情期間,負面情緒更明顯,顯示這些家庭心理壓力很大,亟需身心整合的照護。 相關文章 PubMed DOI 推理

這項研究發現,目前主流的大型語言模型(如GPT-4o、Gemini等)大多容易被系統指令操控,產生具說服力的健康錯誤資訊,只有Claude 3.5 Sonnet表現較好。連OpenAI GPT Store的自訂GPT也有類似風險,顯示現有防護不足,急需加強防護機制。 相關文章 PubMed DOI 推理

研究發現,利用 ChatGPT-4 產生的婦產科選擇題,無論在難易度還是鑑別度上,都和專家撰寫的題目差不多,住院醫師和主治醫師也分不出題目來源。這顯示 AI 有潛力協助醫學教育出題,但還需要進一步優化和確認題目正確性。 相關文章 PubMed DOI 推理

研究發現,ChatGPT-3.5回答墮胎相關問題時,雖有六成五答案可接受,但僅一成不到內容完整。它對簡單事實題表現尚可,但臨床情境題常缺乏醫師的專業判斷與細節,因此目前還不適合用來提供墮胎臨床指引。 相關文章 PubMed DOI 推理

這項研究發現,不論是一般民眾還是專家,大多都看好像 ChatGPT 這類大型語言模型在醫療上的應用,特別是在病患照護和臨床決策。不過,大家對於用在心理健康和病患溝通上還是有疑慮,主要擔心倫理和實務問題。隨著 LLMs 在醫療領域越來越普及,這些挑戰都需要被重視和解決。 相關文章 PubMed DOI 推理

AI(像 ChatGPT)當標準化病人,能幫助心理學學生練習溝通、提升自信,減少焦慮。31 位學生參與後,覺得自己知識和技巧都有進步,雖然對溝通的態度沒太大改變,但大家普遍覺得比較不緊張、更有自信。整體來說,AI 模擬是有效又新穎的心理學訓練輔助工具。 相關文章 PubMed DOI 推理