原始文章

這篇論文介紹肯塔基大學開發的友善平台,讓大家更簡單建立和使用自訂大型語言模型。系統用 multi-LoRA 技術,能讓不同用戶和專案各自用自己的 adapter。平台強調安全,支援多租戶、資料隔離、加密和角色權限控管,目標是提供平價又安全的 LLM 服務,協助科學和生醫研究。 PubMed


站上相關主題文章列表

這篇文章介紹了一個結構化的方法,幫助醫療專業人員有效運用大型語言模型(LLMs)。重點在於LLMs在臨床文檔和病人試驗匹配等醫療任務中的潛力。方法包括五個關鍵步驟: 1. **任務制定**:找出適合LLM的醫療任務。 2. **選擇LLMs**:根據需求選擇合適的模型。 3. **提示工程**:設計有效的提示來引導回應。 4. **微調**:調整LLMs以符合醫療應用。 5. **部署**:考慮法規、倫理及持續監測公平性。 目的是提供醫療人員安全有效整合LLMs的指導。 PubMed DOI

這項研究著重於建立安全的基礎設施,以便在醫療保健中使用大型語言模型(LLMs),特別針對數據安全和病人隱私的問題,並確保符合HIPAA規範。研究團隊在私有的Azure OpenAI Studio上部署,提供安全的API端點,並測試了兩個應用:從電子健康紀錄中檢測跌倒,以及評估心理健康預測中的偏見。這個框架成功確保了病人隱私,讓研究人員能安全處理敏感數據,為醫療機構提供可擴展的解決方案。 PubMed DOI

將大型語言模型(LLMs)應用於醫療保健能顯著提升臨床流程與病人護理,但也面臨準確性、可及性、隱私及法規等挑戰。雖然專有模型如GPT-4和Claude 3受到關注,開源模型如Llama 3和LLaVA-Med對醫療機構和研究人員有獨特優勢,但因不熟悉和基礎設施不足,採用速度較慢。這篇文章提供放射學中實施開源LLMs的教程,包括文本生成、提示工程等實用範例,並比較開源與專有模型的優缺點。 PubMed DOI

大型語言模型有潛力改變科學數據的分析與溝通,但在準確性上仍有挑戰。洛瑞特腦研究所與塔爾薩大學開發的LITURAt系統,透過整合外部數據檢索和分析工具,旨在提供可靠的輸出,讓專家與非專家都能輕鬆使用。研究顯示,LITURAt在查詢一致性和準確性上表現優異,能改善科學數據分析的可及性。儘管有些限制,LITURAt仍顯示出促進數據驅動見解民主化的潛力。 PubMed DOI

將大型語言模型(LLMs)應用於醫療保健有潛力提升病患照護與運營效率,但需謹慎整合,面臨技術、倫理及法規挑戰。 技術上,封閉式LLMs易於部署但可能影響數據隱私;開放式LLMs則可客製化,增強數據控制,但需更多資源與專業知識。倫理上,必須遵循指導方針以保護病患機密性,並確保透明度與責任。法規框架也需建立以保障病患權益。 因此,臨床醫生、研究人員與科技公司之間的合作至關重要,能促進技術穩健且符合倫理的LLMs發展,最終改善病患治療結果。 PubMed DOI

這項研究介紹了一種新的個人化大型語言模型(PLLM)代理,旨在提升大型語言模型在人體與機器人及人機互動中的整合能力。雖然現有研究多集中於技術層面,但在適應個別用戶情境上仍面臨挑戰。我們提出利用特定領域數據來個人化模型,並透過NeuroSense EEG數據集進行驗證。研究結果顯示,PLLM在醫療、教育及輔助技術等領域具有效用,並探討了相關的倫理考量,如數據隱私問題。這標誌著人工智慧在適應性和個人化上的重要進展。 PubMed DOI

DeepSeek-V3 和 DeepSeek-R1 這類開源大型語言模型,在臨床決策支援上表現不輸甚至超越 GPT-4o、Gemini-2.0 等專有模型。最大優勢是能在本地安全微調,符合醫療隱私規範,非常適合台灣醫療現場應用。 PubMed DOI

這篇論文介紹一套得獎的3D超擬真互動數位人系統,採用模組化客戶端-伺服器架構,結合LLM、語音辨識、自然語言處理和情感TTS技術。透過電腦圖學和AI,打造擬真3D虛擬人,目標是革新數位內容的製作和應用方式,並探討未來發展潛力。 PubMed DOI

這篇論文提出 HELP-ME 三階段架構,能系統性評估並保護醫療大型語言模型的病患隱私,不會影響模型效能。它用提示詞檢測隱私問題,並透過混淆技術保護資料。實驗證明,HELP-ME 在真實醫療資料上能有效守護隱私,同時維持高診斷準確率,是醫療 LLMs 的實用安全方案。 PubMed DOI

ADetectoLocum 是一款可在醫院本地端運作的開源語言模型,能透過病患語音早期偵測阿茲海默症風險。它不需傳輸資料到外部,符合 HIPAA 法規,且準確率高於過去模型,是醫療院所安全又實用的 AD 診斷工具。 PubMed