LLM 相關三個月內文章 / 第 59 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討大型語言模型(LLMs),如ChatGPT-3.5和GPT-4,在風濕性疾病治療計畫的潛力,並與臨床風濕病學委員會(RB)的計畫進行比較。結果顯示,68.8%的案例中RB的計畫更受偏好,GPT-4和GPT-3.5則分別為16.3%和15.0%。GPT-4在一線治療中較受青睞,且與RB的計畫在安全性上無顯著差異。雖然LLMs生成的計畫安全且高品質,但RB的計畫在遵循指導方針和整體品質上表現更佳,建議需進一步研究以提升LLMs的臨床應用。 相關文章 PubMed DOI

區塊共聚物資料庫(BCDB)是一個綜合平台,提供搜尋、提交、視覺化及下載與區塊共聚物相關的實驗數據。它解決了數據共享的標準化問題,目前擁有超過5,400個熔融相位測量和模擬數據點。使用者可透過CRIPT網頁應用程式訪問,並利用BigSMILES編碼進行詳細搜尋。BCDB還整合了GPT-4 AI模型,能有效篩選相關文獻,幫助識別貢獻數據的論文,顯示出其在聚合物數據獲取上的重要性。 相關文章 PubMed DOI

可穿戴技術的發展帶來大量感測器數據,促進健康監測和個人化醫療,但也面臨數據複雜性和分析挑戰。近期,大型語言模型(如GPT-4和Llama)成為分析這些數據的新工具。本研究探討了利用這些模型進行人類活動識別的趨勢與挑戰,並分析了數據質量、計算需求、可解釋性及隱私等問題。透過案例研究,顯示LLMs在數據分析中的潛力,並建議未來研究應聚焦於預處理技術和跨學科合作。 相關文章 PubMed DOI

基於骨架的動作識別因其效率和對光照變化的適應性而受到重視,但現有方法多集中於全局骨架特徵,忽略了肢體動作間的微妙關聯。針對「刷牙」和「梳頭髮」等動作的細微差異,我們提出了語言驅動的部分語義相關性學習(LPSR)框架,將細緻的語言描述融入骨架特徵學習中。透過大型語言模型生成局部肢體動作描述,並結合全局骨架表示,我們創建了全面的跨模態行為表示,並引入循環注意互動模塊以捕捉肢體動作間的隱含關聯。我們的研究證實了此方法的有效性,並在動作識別上達到最先進的表現。 相關文章 PubMed DOI

這項研究分析了來自社交媒體和線上平台的大量數據,評估公眾對城市專案的意見,特別是交通系統的發展。研究人員運用先進的演算法和工具,如品牌分析和GPT模型,來解讀市民的即時反饋。結果顯示,使用者對專案的看法偏中立,並未顯示出明顯的社會緊張,這意味著計畫推進可能會順利。此外,研究還提出建議,以避免潛在衝突並解決社會緊張的根源,協助城市發展的決策。 相關文章 PubMed DOI

這項研究比較了三種放射組學模型(邏輯回歸、隨機森林和支持向量機)與臨床預測圖在預測前列腺癌患者淋巴結侵犯(LNI)的表現。分析包含95名接受mp-MRI及根治性前列腺切除術的患者,收集影像學、臨床及組織學數據。手動分割病變後,提取了343個特徵,隨機森林模型在DWI和ADC的預測準確率上表現最佳,顯示出比臨床預測圖更高的診斷準確性。 相關文章 PubMed DOI

這項研究評估大型語言模型(LLMs)在教育接受莫氏微創手術(MMS)患者的有效性。專家小組分析了兩個LLM生成的回應及Google搜尋結果。結果顯示,大多數LLM的回應適當,75%被評為大致準確,但只有33%足以用於臨床。回應的可理解性相當於10年級,可能影響患者理解。總體來看,雖然LLMs是有用的資訊來源,但皮膚科醫生應注意這些工具在臨床應用上的限制。 相關文章 PubMed DOI

最近機器學習的進展促成了先進預測模型的誕生,能解決計算生物學中的複雜問題,並引發了對可解釋機器學習(IML)的興趣。IML旨在深入了解生物數據與過程,但目前在計算生物學領域中,對有效應用IML的指導仍然不足。本文探討了各種IML方法及評估技術,並指出在生物學應用中面臨的挑戰,強調IML與計算生物學研究者之間合作的重要性,以提升對這些技術的理解與應用。 相關文章 PubMed DOI

這篇論文探討大型語言模型(LLMs)如GPT-3.5、GPT-4和LLaMa-2在博弈理論中的策略行為,並分析遊戲結構與背景對決策的影響。研究發現: - **GPT-3.5** 對背景敏感,但抽象策略思考較弱。 - **GPT-4** 專注於遊戲內部機制,對背景敏感度低,區分遊戲類型較粗略。 - **LLaMa-2** 在理解遊戲結構與考量背景上取得平衡,處理複雜策略情境時更具優勢。 總體來看,LLaMa-2在整合遊戲結構與背景方面表現最佳,而GPT-4則偏向一般化的結構策略。 相關文章 PubMed DOI

這項研究針對微調RoBERTa模型,目的是自動檢測放射報告中的意外發現,以協助放射科醫師。使用的數據集包含44,631份報告進行訓練,5,293份進行初步測試,還有100份用於比較測試。結果顯示,微調後的RoBERTa模型在初步測試集上準確率達86.15%,比較測試集為79%,明顯優於ChatGPT的64%和CNN的49%。整體來看,微調的RoBERTa模型在檢測意外發現方面表現更佳。 相關文章 PubMed DOI