LLM 相關三個月內文章 / 第 30 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了GPT-4o在MIMIC-III數據集中提取病人症狀和體徵的能力,強調準確提取對診斷和治療的重要性。研究測試了兩個溫度設定(1和0.3),發現較高的溫度(1)能產生多樣化的輸出,平均精確度達79%,特異性96%,但變異性大。相對而言,較低的溫度(0.3)則輸出較保守,平均精確度僅45%。儘管有變異性,最佳溫度下的高召回率和特異性顯示,GPT-4可能成為臨床提取症狀和體徵的有用輔助工具。 相關文章 PubMed DOI 推理

將人工智慧(AI)融入醫療資訊學,能顯著提升醫療服務,包括改善診斷、預測分析和個人化治療。本文探討通用智慧如何增強AI在複雜臨床環境中的效能與適應性。我們分析了局部、廣泛和極端三種泛化層次,各自對醫療領域的貢獻與挑戰。局部泛化專注於特定風險評估,廣泛泛化則能在不同人群中進行病人分層,而極端泛化則面臨最大挑戰,需在無經驗情況下調整。儘管已有進展,但評估泛化挑戰的指標仍不足,顯示出新評估方法的需求。 相關文章 PubMed DOI 推理

這項研究評估了GPT-4o大型語言模型在從非結構化的臨床筆記中提取徵兆和症狀的表現。研究使用MTSamples語料庫的手動標註筆記作為比較,並透過命名實體識別技術進行提取。結果顯示,GPT-4o在一般提取中達到78%的精確度,心肺數據集更高達87%,泌尿數據集則為81%。雖然模型表現良好,但在專業領域仍需進一步調整以提升召回率和適用性。 相關文章 PubMed DOI 推理

這份報告探討了將大型語言模型(LLMs)與可穿戴技術結合的初步成果,目的是提供個性化建議,提升學生的福祉與學業表現。我們分析了學生的數據,包括可穿戴設備的指標和學術報告的質性反饋,進行情感分析以評估情緒狀態。研究顯示,LLMs能有效分析文本數據,提供實用見解,幫助了解學生的參與度並找出改進空間,顯示出LLMs在教育上的潛力,能更深入理解學生需求。 相關文章 PubMed DOI 推理

這份報告探討了使用大型語言模型(LLMs)進行教育情感分析的初步結果。我們分析了學生報告中的質性描述,以評估他們對學業表現的情感狀態和態度。情感分析揭示了學生參與度的重要見解,並指出需要改進的地方。研究顯示,LLMs能有效分析文本數據,提供比傳統方法更深入的情感理解,顯示出在改善教育評估和干預方面的潛力。 相關文章 PubMed DOI 推理

大型語言模型(LLMs)在護理診斷和計畫的品質上仍有爭議,過去研究多集中於ChatGPT。我們開發了結構化護理評估模板及提示框架,評估ERNIE Bot 4.0和Moonshot AI的護理診斷與計畫,並與金標準比較。結果顯示,這兩個模型的輸出在範疇和性質上與金標準相似。結構化模板有效捕捉神經外科病人的特徵,提示技術則提升模型的泛化能力。研究顯示LLMs在臨床護理中的潛力,但整合進臨床環境仍面臨挑戰。 相關文章 PubMed DOI 推理

這篇文章探討了多模態推薦系統的最新進展,這些系統結合文本、圖像和用戶對話等多種數據。文章指出兩大挑戰:用戶需求的複雜性和高品質數據集的不足,尤其在互動場景中。提出的解決方案結合多模態技術與大型語言模型(LLMs),提升用戶互動和推薦準確性。關鍵技術包括交叉注意力機制、多圖神經網絡和自我反思機制。實驗結果顯示,這些模型在準確率和召回率上超越現有方法,並在視覺問答任務中表現優異,顯示出其實際應用潛力。 相關文章 PubMed DOI 推理

機器學習(ML)和人工智慧(AI)在醫療領域的應用潛力巨大,但仍面臨解釋性和可靠性等挑戰。本文提出一種新方法,利用大型語言模型(LLMs)進行特徵工程,從《牛津醫學教科書》中提取臨床特徵,提升可解釋性。這種方法將臨床筆記轉換為概念向量,並使用線性分類器,準確率達到0.72,超越傳統基準。使用文本嵌入技術也顯著降低了時間和成本,減少了97%。相關代碼和補充材料可在指定網址獲得。 相關文章 PubMed DOI 推理

這項研究評估了四款AI聊天機器人—GPT-3.5、GPT-4、Gemini和Bing—在牙齒修復學常見問題的回應效果。研究人員針對植牙、固定修復、全口假牙和可拆式部分假牙等領域設計問題,並使用統計方法分析回應。結果顯示,聊天機器人之間的有效性差異明顯,特別是Bing表現最差。雖然Bing、Gemini和GPT-4在一致性上表現尚可,但GPT-3.5則不理想。整體來看,研究強調了AI聊天機器人在提供高品質牙齒修復相關答案上的限制。 相關文章 PubMed DOI 推理

這項研究評估了自訂的GPT-4模型在醫學文獻數據提取和評估方面的表現,以協助系統性回顧。研究團隊創建了四個專門模型,針對研究特徵、結果、偏見評估及風險評估進行分析。結果顯示,GPT-4在數據提取的符合率達88.6%,且在2.5%的情況下準確性超過人類評審。在偏見評估方面,GPT-4的內部一致性公平至中等,外部一致性則優於人類評審者。整體而言,GPT-4在系統性回顧中展現出潛在的應用價值。 相關文章 PubMed DOI 推理