LLM 相關三個月內文章 / 第 27 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

臨床試驗對醫學進步和病人獲得新療法非常重要,但像 ClinicalTrials.gov 的複雜語言讓人難以理解。本研究探討大型語言模型(LLMs),特別是 GPT-4,如何改善病人對癌症臨床試驗的教育。研究人員利用知情同意書,透過兩種 AI 方法創建易懂的摘要,並設計多選題評估病人理解。結果顯示,AI 生成的摘要更易讀,且超過 80% 的參與者表示理解更好。儘管 LLMs 有助於增強病人參與,但仍需解決準確性和倫理問題,未來應專注於改善 AI 流程和遵循法規。 相關文章 PubMed DOI 推理

這項研究指出社交媒體對抑鬱症患者的影響,特別是他們與扭曲內容的互動。研究中838名參與者顯示,抑鬱症狀較重的人更容易接觸這類內容。研究還提出一個簡單的介入措施,能幫助人們提高意識,減少與扭曲內容的互動,無論抑鬱程度如何。這顯示針對性的意識訓練能有效減輕社交媒體對抑鬱症患者的負面影響,並強調進一步研究社交媒體與心理健康關係的重要性。 相關文章 PubMed DOI 推理

人工智慧(AI)正在改變牙科領域,特別是ChatGPT等工具在診斷和治療計畫中展現潛力。本研究調查了384名印度馬哈拉施特拉邦的牙科學生和教職員對ChatGPT的認知與使用情況。結果顯示,87.2%的受訪者認識到ChatGPT的AI特性,研究生對其知識和使用意願較高,但教職員對數據隱私的擔憂更重。為了更好地整合AI於牙科教育,需開發針對性的培訓計畫。 相關文章 PubMed DOI 推理

乙型肝炎(HBV)影響全球約2.54億人,中國病例比例相當高。HBV的污名化使得人們獲得檢測和治療變得困難。本研究分析了中國醫友論壇的35,697則帖子,探討污名化與認知扭曲的關聯。結果顯示,與污名相關的帖子中,認知扭曲的出現率是非污名帖的1.8倍,特定扭曲如否定正面和標籤化更為常見。研究建議認知行為療法(CBT)可有效減少這些扭曲及其心理影響,並強調先進計算技術在心理學研究中的應用。 相關文章 PubMed DOI 推理

這項研究探討了ChatGPT在識別和修正多選題缺陷的有效性,於2023年2月至8月在Riphah國際大學進行。研究分三階段進行,第一階段ChatGPT成功識別缺陷並提出修正建議;第二階段則透過NBME指南訓練其檢測能力;第三階段測試顯示在某些缺陷上有所改善,但仍對非平行選項和詞彙重複等問題感到困難。整體效率未顯著改善,且高峰時段表現下降。這些結果顯示人工智慧在教育上的潛力與限制,持續研究對於發揮其能力至關重要。 相關文章 PubMed DOI 推理

這項研究提出了一種簡化的檢索器,利用BioBERT的上下文詞嵌入來搜尋人類表型本體(HPO),提升大型語言模型在標準化表型術語的準確性。與傳統依賴明確術語定義的方法不同,我們的方法讓GPT-4o在《線上孟德爾遺傳學手冊》的臨床摘要中,標準化準確率從62%提升到85%。這不僅顯示出顯著的準確性提升,還提供了一種比複雜檢索系統更有效的替代方案,顯示其在其他生物醫學術語標準化任務中的潛力。 相關文章 PubMed DOI 推理

這項研究探討實驗室檢測結果對大型語言模型(LLMs)在醫學鑑別診斷(DDx)準確性的影響。研究人員從50個病例報告中創建臨床小插曲,評估了五個LLMs的表現,包括GPT-4、GPT-3.5等。結果顯示,加入實驗室數據可提高DDx準確性多達30%。其中,GPT-4表現最佳,Top 1準確率達55%,寬鬆準確率79%。特別是GPT-4和Mixtral的改進顯著,這些模型能有效解讀肝功能和代謝面板等檢測結果。 相關文章 PubMed DOI 推理

Astro-QA 資料集是一個專為天文學問答設計的新基準,包含 3,082 個中英文問題,涵蓋天體物理學、天文測量學和天體力學等領域。它提供標準答案和相關資料以便評估。為了評估大型語言模型(LLMs)的表現,推出了 DGscore 指標,考量問題類型和難度。這個資料集已在 27 種 LLMs 上測試,顯示其在指令遵循、知識推理和自然語言生成方面的有效性,特別是在天文學領域。此研究旨在增進對 LLMs 在天文學的理解與發展。 相關文章 PubMed DOI 推理

電神經肌肉圖譜學起源於19世紀初,結合了神經圖譜學和肌肉圖譜學。關鍵人物如魯姆科夫推動了電流學的發展,並進行了電刺激實驗。隨著杜申的法拉第電刺激和布倫納的電流極性法改進,電診斷技術逐漸標準化。第一次世界大戰後,雙極方法和反射記錄被引入,20世紀初的技術進步使得神經動作電位的繪製成為可能。1950年代,肌電圖設備商業化,吸引了新一代神經科學家的關注。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs)如何理解自我一致性,重點在於它們在回應中保持邏輯和上下文一致的能力。作者提出了一個名為 S²AF 的框架,透過自我提問和回答的機制,讓 LLMs 能夠自主生成、提問、回答並評估輸出。研究顯示,LLMs 在理解自我一致性方面的能力各有不同,並能透過自身輸出提升表現,這稱為「自我增強前饋」。實驗結果支持這些結論,顯示模型在不同推理情境中對知識關係的理解差異。 相關文章 PubMed DOI 推理