LLM 相關三個月內文章 / 第 11 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較了三款AI聊天機器人回答兒童O型腿和X型腿問題的表現。結果發現,ChatGPT和Gemini的答案比Copilot更正確、內容也更完整,但三者在表達清楚度和錯誤資訊風險上差不多。整體來說,AI可以協助提供健康資訊,但在兒科醫療領域,專家審核還是很重要。 相關文章 PubMed DOI 推理

ChatGPT 回答疫苗猶豫問題時,內容大致正確且符合 CDC 指引,也能讓人安心。不過,細節像年齡建議、疫苗選擇或文化宗教疑慮講得比較少。若能補強這些面向,ChatGPT 有潛力成為提升疫苗信心的好幫手。 相關文章 PubMed DOI 推理

King Khalid University 多數藥學系學生對用 ChatGPT 和 AI 學習持正面看法,覺得查藥物資訊和準備考試很有幫助。不過,也有人擔心 AI 的正確性和倫理問題。研究建議學校應提供系統性訓練,讓學生能安心善用 AI,發揮其在藥學教育的優勢。 相關文章 PubMed DOI 推理

這篇文章整理了最新AI技術,像是深度學習、大型語言模型和多模態模型,如何徹底改變植物疾病偵測和抗病性預測。內容涵蓋AI在疾病辨識、組學資料分析和性狀選拔的進展,也討論多元資料整合的應用。文中同時指出資料、模型和隱私等挑戰,並提出未來可結合大型語言模型與聯邦學習。整體來說,這是加速抗病作物育種的實用參考。 相關文章 PubMed DOI 推理

這項研究比較了ChatGPT-4o、Grok和Gemini三款AI在解讀腦部MRI的表現。Gemini在找出病灶最厲害,Grok則最會分辨MRI序列。不過,三款AI目前都還不夠準確,還不能直接用在臨床上,未來還需要再改進,醫療應用上要特別小心。 相關文章 PubMed DOI 推理

大型語言模型(LLMs)在重症醫療上應用快速成長,能提升病人管理、診斷、紀錄和醫療教育等,但也有偏見、可靠性和透明度等問題。導入臨床時,需嚴格驗證,確保安全與倫理,才能真正發揮AI在醫療的正面影響。 相關文章 PubMed DOI 推理

**重點摘要:** 生成式AI語音助理,利用先進的語言模型來即時理解並自然對話,有機會徹底改變醫療領域的病患互動。只要設計得當並負責任地使用,這些AI可以擴展醫護人員的能力,幫助醫療體系接觸到更多病患,雖然在技術和實際應用上還是有一些挑戰需要克服。 相關文章 PubMed DOI 推理

研究用 GPT-3 分析精神病患和健康者的語音,發現精神病患對長語境不敏感,語言較混亂,這能預測正性思考障礙(如語無倫次),但無法預測負性症狀(如語言貧乏)。這方法可自動、客觀評估語言混亂,並連結臨床症狀與語言處理差異。 相關文章 PubMed DOI 推理

這項研究評估多種大型語言模型,利用提示工程從胃鏡和大腸鏡報告中擷取結構化資訊。結果顯示,大型且專業化的模型在基本資訊擷取表現最好,但遇到複雜推理時仍有限制。少樣本學習對部分模型有幫助,顯示LLMs自動化醫療文本分析有潛力,但還需改進。 相關文章 PubMed DOI 推理

RadGPT 結合概念擷取和大型語言模型,能自動產生解釋和問答題,協助病人看懂放射科報告。研究顯示,AI 產生的內容多獲醫師好評,且無安全疑慮。LLM 產生的問題比傳統模板更優,這工具有助病人理解複雜醫療資訊,潛力十足。 相關文章 PubMed DOI 推理