LLM 相關三個月內文章 / 第 67 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較GPT-4等大型語言模型,和專為材料科學設計、經過微調的模型(如MatSciBERT、DeBERTa)在材料疲勞資料集上的命名實體辨識能力。結果顯示,針對任務微調的模型表現明顯較佳,基礎模型的上下文學習效果則高度依賴範例品質。領域預訓練對提升NER表現非常重要。 相關文章 PubMed DOI 推理

**重點摘要:** 生成式AI和大型語言模型可以提升醫學教育的效率,並讓學習更加個人化,但同時也帶來學習品質、評量真實性和學術誠信等方面的疑慮。這篇綜述討論了這些議題,包括教學策略、AI的新角色以及可信度問題,並探討了可能的監管對策來因應這些挑戰。 相關文章 PubMed DOI 推理

生成式 AI 像 ChatGPT 能幫司法精神科醫師減輕文書和病歷摘要的負擔,但也有隱私、偏見和被濫用假裝症狀的風險。相關倫理和法律規範正逐步建立,醫師應積極參與,確保 AI 安全、有效地應用在司法精神科領域。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 相關文章 PubMed DOI 推理

這項研究比較了 ChatGPT 和 ERNIE Bot 在中英文乳癌資訊上的表現。結果顯示,英文版 ChatGPT 答案最準確、最實用,特別適合一般病患提問。不過,兩款 LLM 在專業問題上表現都不佳,且常缺乏佐證資料。目前還不適合完全依賴 LLM 做臨床決策,資料安全和法律風險也需注意,未來還要進一步研究。 相關文章 PubMed DOI 推理

這篇文獻回顧發現,大型語言模型(如ChatGPT)能協助制定個人化運動建議,提升效率與安全性,並增加參與度,對資源有限地區特別有幫助。不過,LLMs應當輔助而非取代專業人士,專家審核仍很重要。未來建議加強臨床試驗與專業訓練,確保安全有效整合進健康照護。 相關文章 PubMed DOI 推理

AI聊天機器人(如ChatGPT、Gemini、Meta AI)對先天性馬蹄足的資訊大致正確,但約四分之一內容有限或有誤,完全安全的回答僅三成,各平台差異不大。因準確性和安全性仍有疑慮,建議家長還是要諮詢專業醫師,不要只靠AI。若AI能取得最新實證醫療資料,未來會更可靠。 相關文章 PubMed DOI 推理

SCQRE 模型專門用來更精準擷取問題裡的主觀比較關係,重點涵蓋實體、面向、限制和偏好。它結合多任務學習、NLI 和 RoBERTa adapter,能處理隱含或複雜的比較,也能穩健應對限制條件。實驗證明,SCQRE 在比較關係擷取上表現比現有模型和主流大型語言模型更好。 相關文章 PubMed DOI 推理

這篇研究比較人類和ChatGPT在財經、醫療建議文本中動詞-論元構式(VACs)的使用。結果發現,雙方在VACs的類型和頻率很接近,但ChatGPT較依賴常見語法結構,且用的動詞和表達意思還是有差異。新版GPT在動詞-VAC的表現更像人類,但整體文本長度等特徵還是不同。VACs可用來分析AI語言變化。 相關文章 PubMed DOI 推理

這篇研究發現,針對不同臨床紀錄類型設計的NLP模型,在預測住院死亡風險上,比傳統方法和34種大型語言模型(LLMs)都更準確。雖然LLMs在其他領域很強,但在這個任務上表現不佳,顯示現有LLMs在臨床應用上還有限制。這個新模型也有助於找出最有用的臨床紀錄。 相關文章 PubMed DOI 推理