LLM 相關三個月內文章 / 第 39 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

將人工智慧(AI)和大型語言模型(LLMs)整合進德國醫療系統,能提升病人護理和臨床研究,但因數據保護法律複雜,實際應用仍有限。關鍵因素包括遵守GDPR、獲得病人同意、建立數據處理協議、確保醫療監督及提供者透明度。隨著AI技術進步,LLMs的應用潛力將增強,但需明確法律和倫理指導,以保障病人權益和數據安全。 相關文章 PubMed DOI 推理

這項研究評估了Visual ChatGPT在真實病人影像中進行壓力性傷害分期的效果,並與專業護理人員的表現進行比較。研究分析了155張影像,結果顯示專業護理人員的準確性較高。Visual ChatGPT在早期傷害評估上表現不錯,尤其是考慮傷口特徵時,但在處理複雜案例上仍需改進。這顯示AI在傷口護理中有輔助潛力,特別對於經驗不足的護理人員或缺乏專家的地區。研究遵循STROBE檢查表,未涉及病人或公眾參與。 相關文章 PubMed DOI 推理

這篇評論指出將像ChatGPT這樣的AI技術應用於醫療領域的潛在好處,包括提升效率、降低成本和改善病人結果。不過,它也強調了解決倫理挑戰的重要性,以確保公平使用。評論將這些挑戰分為五個主要領域:偏見、隱私、錯誤資訊、自主性和問責。為了解決這些問題,提出了INNOVATE框架,旨在為AI在醫療中的應用提供明確的倫理指導,促進負責任的整合,並減少倫理顧慮。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs),如ChatGPT、Gemini和Copilot,在乳房影像學問題上的表現。研究中,五位乳房放射科醫生提出九個乳房攝影篩檢問題,並由兩位專家評估LLMs的回答。結果顯示,兩種語言的回答平均分數相似,約在3.6到4分之間。一般問題的回答較準確,但針對特定問題,尤其是密集乳房的定義,回答常常不完整。此外,意大利語的來源引用不夠專業,顯示LLMs在提供醫療資訊上的限制。總體而言,LLMs雖能促進醫療溝通,但在專業領域的準確性仍需加強,強調AI與醫療專業人員合作的重要性。 相關文章 PubMed DOI 推理

大型語言模型(LLMs)如ChatGPT在醫學領域的應用潛力巨大,但也帶來了準確性和可靠性的挑戰。研究顯示,LLMs能提供正確的疾病管理資訊,但必須符合國際指導方針。關鍵考量包括回應的可讀性、與指導方針的一致性、資訊來源的時效性、跨模型和跨語言的一致性,以及臨床使用的驗證。總之,雖然LLMs能提升醫學教育和決策,但仍需謹慎評估,以確保其在臨床中的安全與有效性。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-3.5和ChatGPT-4在回答台灣醫師執照考試醫學問題的表現,特別關注繁體中文的能力。結果顯示,ChatGPT-3.5在基礎醫學科學的準確率為67.7%,臨床醫學為53.2%;而ChatGPT-4的表現明顯優於前者,準確率分別達到91.9%和90.7%。雖然問題類型對準確率影響不大,但ChatGPT-4在所有科目中均表現良好,顯示AI在醫學教育中的潛力,實施時仍需謹慎考量不同專業的變異性。 相關文章 PubMed DOI 推理

這個專案調查了休閒運動員對AI生成訓練計畫的依賴程度,以及使用者和非使用者對這些技術的信任差異。結果顯示,54%的參與者使用結構化訓練計畫,其中25%依賴AI生成的計畫。使用AI工具的運動員對這些技術的信任明顯高於非使用者。此外,AI生成的訓練計畫質量已經提升,專業教練也難以區分其與人類專家創建的計畫。這顯示AI生成的計畫可能成為運動員尋求訓練指導的可信選擇。 相關文章 PubMed DOI 推理

多代理對話(MAC)框架是為了提升疾病診斷而設計的,透過臨床多學科團隊的合作。在一項針對302個罕見疾病案例的研究中,MAC的表現超越了GPT-3.5和GPT-4等單一模型,無論是在初診還是後續諮詢中,診斷準確性和建議檢測效果都更佳。最佳配置為四位醫生代理和一位監督代理,並以GPT-4為基礎模型。MAC在多次測試中表現穩定,並且在性能上優於其他方法,顯著提升了大型語言模型的診斷能力,為未來醫療研究提供了新方向。 相關文章 PubMed DOI 推理

這項研究評估了四個大型語言模型(LLMs)的表現,包括Google Bard、Microsoft Copilot、具視覺功能的GPT-4和Gemini Ultra,專注於耳鼻喉科的題庫。共收集350道選擇題,結果顯示Gemini Ultra準確率最高,達79.8%,GPT-4為71.1%、Copilot 68.0%、Bard 65.1%。Gemini的回應較長,且包含解釋性圖片,而Bard的回應最長。Gemini和GPT-4成功回答所有影像問題,顯示其多模態能力。研究強調醫學學習者需批判性評估LLMs的準確性與可靠性。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-4o在遠端橈骨骨折治療適當性評分的準確性,並與美國骨科醫學會的指導方針進行比較。分析了240個病人情境,考量骨折類型、受傷機制及病人健康狀況。主要發現顯示,對於不同治療選項的評分誤差不一,掌側鎖定板的誤差最小,而背側鋼板的誤差最大。雖然某些治療方法之間有正相關,但整體上ChatGPT-4o偏向保守治療,這引發了對其在醫療建議可靠性上的疑慮。 相關文章 PubMed DOI 推理