LLM 相關三個月內文章 / 第 34 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討大型語言模型(LLMs)在中文語法錯誤修正的表現,這領域尚未被廣泛研究。研究使用語料庫語言學的方法,透過MaxMatch分數等標準指標評估LLMs,並進行關鍵字和n-gram分析,找出LLM輸出與人類標註者的語言特徵差異。結果顯示,LLMs在多位標註者的數據集上表現較佳,但在複雜推理情境中仍面臨挑戰。研究建議未來應著重解決過度修正的問題,並提升在複雜語義情境中的表現。 相關文章 PubMed DOI

這項研究探討了不同BERT模型在理解混合韓文和英文的臨床筆記中的效果,特別針對南韓的研究空白。研究使用了來自南韓一家醫院的164,460名患者數據,對BERT-base、BioBERT、KoBERT和多語言BERT(M-BERT)進行了預訓練和評估,涵蓋七個微調任務。 主要發現包括:BERT-base和BioBERT在文件分類中表現最佳,BioBERT的F1分數達89.32;M-BERT在閱讀理解任務中表現優異,F1分數達93.77;在知識推斷方面,M-BERT的hit@10分數為95.41。這項研究顯示了各種BERT模型在多語言臨床環境中的有效性,為未來的應用提供了重要見解。 相關文章 PubMed DOI

這項研究介紹了MEREDITH,一個專為腫瘤科醫生設計的大型語言模型(LLM),幫助提供癌症治療建議。MEREDITH基於Google的Gemini Pro,運用檢索增強生成和思考鏈技術,並以德國癌症中心的虛構腫瘤案例進行評估。它的建議種類比專家多,符合率達94.7%。研究顯示,專家反饋和特定數據能顯著提升LLM的表現,未來可探討其在臨床工作中的應用。 相關文章 PubMed DOI

自從2022年11月ChatGPT推出以來,聊天機器人AI在醫療領域的應用引起了廣泛關注。雖然這些AI在診斷上表現不錯,甚至通過了美國的醫學執照考試,但在實際醫療中使用卻引發了健康結果的疑慮。文章指出,過度強調診斷準確性忽略了醫生與病人之間信任、同理心和溝通的重要性,這些都是良好醫療的關鍵。依賴AI可能會削弱這些人際互動,影響健康結果。文章建議應增強AI的功能,以支持而非取代醫生,最終改善健康結果。 相關文章 PubMed DOI

近年來,大型語言模型(LLMs)在教育領域的應用越來越普遍,然而創建個性化學習環境仍面臨挑戰。文章提到三大挑戰:首先是可解釋性,需增強對LLMs如何理解學習者的認識;其次是適應性,需開發技術提供個性化教學支持;最後是創作與評估,需建立基於LLM的教育代理。克服這些挑戰將有助於打造更符合學生需求的AI輔導員,進而提升學習成效。 相關文章 PubMed DOI

學生的心理健康問題影響深遠,因此探索創新的預防和治療方法非常重要。大型多模態模型(LMMs),像是ChatGPT-4,對於精神疾病的預防、診斷和治療展現出希望。這些模型能提供醫學知識、情感支持,並減少污名化,鼓勵患者開放溝通,還能降低醫療成本,提高服務可及性。 不過,健康風險、安全性、幻覺及倫理問題等挑戰需被解決。未來應專注於制定使用指導方針、建立問責制和法律框架,並採用以人為本的方法,透過先進算法優化LMMs。解決這些挑戰將有助於改善學生心理健康,並促進全球可持續發展目標。 相關文章 PubMed DOI

這個專案評估了ChatGPT在整形外科的實用性,重點在於它的應用與限制。2023年8月25日進行了PubMed文獻搜尋,納入10篇相關論文。研究發現,ChatGPT能協助醫師進行頭腦風暴和理解醫學文獻,但在提供針對特定病人的資訊及病人諮詢方面存在可靠性不足的問題。雖然它對文獻搜尋和資訊檢索有幫助,但目前尚不夠可靠,無法直接應用於臨床實務中。 相關文章 PubMed DOI

對於使用真實臨床筆記來識別中心靜脈導管相關血流感染(CLABSI)的安全大型語言模型進行評估,顯示出令人鼓舞的結果。即使沒有進行預訓練,該模型也能迅速評估並準確識別CLABSI,且具備高敏感性。研究結果顯示,若能獲得更大規模的病患資訊數據集,模型的表現可能會進一步提升。 相關文章 PubMed DOI

最近大型語言模型(如ChatGPT和Bard)在教育領域的應用引發了對學術論文寫作潛在濫用的擔憂。本研究探討這些模型是否能生成關於醫學生個人經歷和倫理困境的非結構性論文,並檢視其是否能與人類作品區分。 研究團隊收集了47篇學生的原創論文,並利用這些內容生成相同數量的AI論文。分析結果顯示,AI生成的論文在情感和分析思維的語言使用上較學生作品更為頻繁。儘管存在語言特徵的差異,兩個LLMs在反映學生對倫理困境的經歷方面均表現出高度有效性。 相關文章 PubMed DOI

大型語言模型(LLMs)在研究和商業應用中越來越受重視,現在的趨勢是使用參數高效微調(PEFT)方法來開發較小的專用模型,而不需完全微調。研究發現,LoRA在各種任務中表現優異,常與完全微調的模型相當,顯示PEFT方法在臨床決策中有效,特別適合低成本運算。小型模型的優勢如快速處理和低訓練成本,超越大型LLMs的性能。此外,領域特定的預訓練對小型模型也相當重要。完整代碼可在GitHub上找到。 相關文章 PubMed DOI