LLM 相關三個月內文章 / 第 132 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究分析了來自社交媒體和線上平台的大量數據,評估公眾對城市專案的意見,特別是交通系統的發展。研究人員運用先進的演算法和工具,如品牌分析和GPT模型,來解讀市民的即時反饋。結果顯示,使用者對專案的看法偏中立,並未顯示出明顯的社會緊張,這意味著計畫推進可能會順利。此外,研究還提出建議,以避免潛在衝突並解決社會緊張的根源,協助城市發展的決策。 相關文章 PubMed DOI

這項研究比較了三種放射組學模型(邏輯回歸、隨機森林和支持向量機)與臨床預測圖在預測前列腺癌患者淋巴結侵犯(LNI)的表現。分析包含95名接受mp-MRI及根治性前列腺切除術的患者,收集影像學、臨床及組織學數據。手動分割病變後,提取了343個特徵,隨機森林模型在DWI和ADC的預測準確率上表現最佳,顯示出比臨床預測圖更高的診斷準確性。 相關文章 PubMed DOI

這項研究評估大型語言模型(LLMs)在教育接受莫氏微創手術(MMS)患者的有效性。專家小組分析了兩個LLM生成的回應及Google搜尋結果。結果顯示,大多數LLM的回應適當,75%被評為大致準確,但只有33%足以用於臨床。回應的可理解性相當於10年級,可能影響患者理解。總體來看,雖然LLMs是有用的資訊來源,但皮膚科醫生應注意這些工具在臨床應用上的限制。 相關文章 PubMed DOI

最近機器學習的進展促成了先進預測模型的誕生,能解決計算生物學中的複雜問題,並引發了對可解釋機器學習(IML)的興趣。IML旨在深入了解生物數據與過程,但目前在計算生物學領域中,對有效應用IML的指導仍然不足。本文探討了各種IML方法及評估技術,並指出在生物學應用中面臨的挑戰,強調IML與計算生物學研究者之間合作的重要性,以提升對這些技術的理解與應用。 相關文章 PubMed DOI

這篇論文探討大型語言模型(LLMs)如GPT-3.5、GPT-4和LLaMa-2在博弈理論中的策略行為,並分析遊戲結構與背景對決策的影響。研究發現: - **GPT-3.5** 對背景敏感,但抽象策略思考較弱。 - **GPT-4** 專注於遊戲內部機制,對背景敏感度低,區分遊戲類型較粗略。 - **LLaMa-2** 在理解遊戲結構與考量背景上取得平衡,處理複雜策略情境時更具優勢。 總體來看,LLaMa-2在整合遊戲結構與背景方面表現最佳,而GPT-4則偏向一般化的結構策略。 相關文章 PubMed DOI

這項研究針對微調RoBERTa模型,目的是自動檢測放射報告中的意外發現,以協助放射科醫師。使用的數據集包含44,631份報告進行訓練,5,293份進行初步測試,還有100份用於比較測試。結果顯示,微調後的RoBERTa模型在初步測試集上準確率達86.15%,比較測試集為79%,明顯優於ChatGPT的64%和CNN的49%。整體來看,微調的RoBERTa模型在檢測意外發現方面表現更佳。 相關文章 PubMed DOI

這項研究探討首次發作精神分裂症(FES)患者的語言異常與腦部語意網絡的關聯。研究者使用大型語言模型(BERT)分析FES患者的語音樣本,發現其語言表達的不可預測性較高。透過功能性磁共振成像(fMRI),研究顯示FES患者在下額回的自我抑制增加,而在後中顳回則減少,這影響了兩者之間的神經連結。研究建議,語言的無序可能源於語意網絡中興奮與抑制的失衡,並指出未來需進一步研究不同語言的情況。 相關文章 PubMed DOI

這項研究開發了一個基於人工智慧的異常檢測模型,幫助醫療人員識別新型疾病並防止疫情擴散。模型使用來自麻薩諸塞州一所醫院的120,714名住院病人數據,基於生成預訓練變壓器(GPT)架構,並透過經驗風險最小化進行訓練。它分析電子健康紀錄,檢測不尋常的病人特徵,並在COVID-19疫情初期成功預測住院情況,達到92.2%的準確率。該模型在異常檢測和死亡預測上表現優異,顯示出在現代醫療中的潛力。 相關文章 PubMed DOI

TUSOM ONR STEM-IMPRESS計畫旨在為來自多元背景的有志醫師提供公平機會,重視賦權、豐富和參與,並強調醫學中的公平性、多樣性和文化代表性,特別是反映新奧爾良社區的特點。 一項針對ChatGPT-4在結腸和直腸外科文獻中生成參考文獻準確性的研究發現,100個引用中只有41個完全準確,且無一包含DOI。67個參考文獻部分準確,但無法達到100%的準確率,且所有文獻的作者信息均不正確。這顯示出ChatGPT-4在學術應用上的潛力,但仍需解決不一致性和準確性問題。 相關文章 PubMed DOI

這項研究的重點在於將大型語言模型的推理能力壓縮成參數較少的小型語言模型,讓它們更容易使用且不影響性能。作者提出了一種新方法,稱為思維方程蒸餾,透過方程式捕捉推理過程,並建立微調小型模型的數據集。此外,他們還提出集成思維蒸餾框架,結合多種思維過程來提升小型模型的推理能力。實驗結果顯示,這些方法顯著提升了小型模型的推理表現。 相關文章 PubMed DOI