LLM 相關三個月內文章 / 第 84 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究用仿人機器人同時調整臉部表情、聲音語調和語言情緒,發現臉部表情對情緒影響最大,其次是聲音語調,最後才是語言內容。結果支持Mehrabian理論,證明非語言訊息在情緒溝通中最重要。這也是首次用三種表達方式一起驗證這個模型的實驗。 相關文章 PubMed DOI 推理

大型語言模型有機會革新醫療照護,但因為缺乏可解釋性,會帶來風險。要讓這些模型在臨床上安全又可靠,除了技術上要加強可解釋性和驗證,也需要有明確的法規和監管,確保模型透明、可信又能追蹤。 相關文章 PubMed DOI 推理

這篇回顧分析56篇研究,發現大型語言模型在腫瘤醫學應用越來越多,像是摘要臨床資訊等。不過,LLMs表現不穩,整體準確率約76%,診斷更只有67%。多數研究只做自動化評估,較少關注安全性或資訊清楚度。目前LLMs專業知識有限,還是需要人工監督,未來應加強資料開放和評估標準化,才能提升癌症照護的可靠性。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在回答罕見心血管疾病相關問題時,表現不如常見疾病,偶爾會重複或回答過於冗長,有些問題也沒答到重點。雖然可作為輔助工具,但建議病人還是要以醫師說明為主,不要完全依賴ChatGPT。 相關文章 PubMed DOI 推理

這項研究用生成式AI(像是ChatGPT、Gemini、Copilot)來擴充教育文本資料集,讓資料量從1,079筆增加到7,982筆。研究用不同資料處理方法和子資料集,訓練超過1.5萬個機器學習模型。結果發現,用AI擴充資料能有效提升模型準確度。 相關文章 PubMed DOI 推理

這項研究比較四款AI聊天機器人回答數位微笑設計問題的表現。ChatGPT-4最準確,Copilot品質最好且會標註資料來源,ChatGPT-3.5雖然較易讀但還是不夠簡單。整體來說,這些AI資訊正確但可讀性差、缺乏透明度,對病患衛教幫助有限,未來需加強內容清楚度和資料來源標示。 相關文章 PubMed DOI 推理

雖然超過一半醫學研究人員寫論文時有用像 ChatGPT 這類大型語言模型,但近兩千篇放射線醫學期刊文章中,只有 1.7% 有主動揭露使用 LLMs。大多數揭露只用在小幅度編輯,且多來自非英語國家。揭露率沒隨時間增加,也沒影響審稿速度。這顯示 LLMs 使用被低報,可能跟污名化、政策不明或標準不一有關,呼籲要有更明確的揭露規範和更開放的研究文化。 相關文章 PubMed DOI 推理

這項研究發現,三年級醫學生在放射線學考試(尤其是影像判讀和臨床推理)表現明顯優於ChatGPT-4o。雖然AI有一定能力,但在專業判讀和臨床整合上,還有很大進步空間,暫時還追不上人類學生。 相關文章 PubMed DOI 推理

這項研究把文字、圖譜、化學式、圖片和描述等多種藥物資訊結合起來,並用不同的資料融合方法來提升藥物交互作用(DDI)的偵測準確度。結果發現,特別是用中階融合策略時,預測效果明顯優於現有方法。研究也分析了預測失誤的原因,對未來改進和臨床用藥安全都有幫助。 相關文章 PubMed DOI 推理

這篇研究發現,雖然語言模型沒有嗅覺,但它們能從文字中還原出人類對氣味的感知。簡單模型較擅長捕捉氣味相似性,進階模型如 GPT-4o 則更能模擬語意上的氣味關聯。這顯示語言中其實蘊含感官經驗,語言模型有助於認知科學探索語言與感知的關係。 相關文章 PubMed DOI 推理