原始文章

這項前瞻性觀察研究針對270名病人進行,最終260名完成研究。研究涵蓋慢性腎病、慢性肝病、結核病、癡呆症和心臟病等慢性疾病,並開發了三個機器學習模型。結果顯示,隨機森林模型在預測CKD和心臟病方面表現最佳,準確率分別為85.3%和88.2%。此外,邏輯回歸在預測TB和癡呆症上也有不錯的表現。研究強調機器學習在慢性疾病預測中的潛力,並建議未來進行多中心研究以驗證結果。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在辨識非典型疾病表現上有一定準確性,但對高度非典型案例的表現較差。儘管對典型和輕微非典型案例有潛力,但隨著非典型性增加,表現也下降。研究強調AI系統需結合多樣語言能力和臨床情境,以提升現實世界的診斷效果。 PubMed DOI

研究評估了大型語言模型在醫療保健領域的應用,尤其是在改善患者護理方面。使用MIMIC-III數據庫的電子健康記錄,測試了這些模型在識別特定疾病患者方面的效能。GPT-4在辨識COPD、CKD、PBC和Cancer Cachexia患者方面表現優異,而ChatGPT和LLaMA3則稍遜。儘管LLMs有潛力,但在臨床應用前仍需解決錯誤、解釋不足和倫理問題。進一步研究將有助於提升模型訓練和設計,以更好地應用於醫療保健。 PubMed DOI

本研究評估ChatGPT-4.0在心臟病臨床案例的預診斷與治療計畫中的表現,並由專家醫師進行評估。研究使用20個案例,結果顯示ChatGPT-4.0在鑑別診斷上的一致性得分中位數為5.00,管理計畫得分中位數為4,顯示其準確性與質量良好。整體而言,ChatGPT-4.0在不同難度的案例中表現穩定,顯示其在心臟病領域作為臨床決策支持工具的潛力。 PubMed DOI

慢性乙型肝炎(CHB)在全球造成重大挑戰,尤其在中國等高盛行率地區。本研究探討AI助手ChatGPT-3.5在CHB管理中的潛力,特別是其提供個性化醫療諮詢的能力。研究發現,ChatGPT-4.0在資訊量和一致性上表現優於3.5,準確率達93.3%。然而,兩者在情感管理上表現不佳,需改進。研究建議針對情感管理進行專門訓練,並進一步探討免責聲明對病人經驗的影響。 PubMed DOI

乳腺癌仍是全球健康的重要議題,亟需改善預測和管理復發的方法。本研究介紹了一個基於人工智慧的臨床決策支持系統(AI-CDSS),利用ChatGPT提升預測準確性。研究開發了一個機器學習模型,使用三軍總醫院2004至2016年的乳腺癌患者數據進行訓練和驗證。模型表現良好,曲線下面積(AUC)達0.80。AI-CDSS在臨床應用中顯示出個性化治療和增強患者參與的潛力,但仍需在不同臨床環境中進一步驗證其有效性。 PubMed DOI

這篇論文探討了ChatGPT和自然語言處理(NLP)在醫療領域的應用,特別是針對肝臟疾病數據的管理與解釋。文中強調準確且最新的數據對有效實施的重要性,並指出處理敏感醫療資訊時需解決隱私與安全問題。論文概述了ChatGPT的工作流程及其專為醫療設計的功能,強調其在協助研究人員和臨床醫生分析肝臟相關數據的角色。最後,建議ChatGPT有潛力提升肝臟疾病的診斷、預後及病患照護。 PubMed DOI

心臟衰竭(HF)是全球健康的重要議題,影響死亡率和經濟負擔。先進的人工智慧技術,特別是像ChatGPT這樣的系統,為HF管理帶來新機會。這篇綜述分析了多個醫學資料庫的研究,探討ChatGPT在HF預防、診斷和管理中的應用,特別是對臨床決策和病人教育的影響。儘管有潛力,ChatGPT仍面臨訓練數據不足和倫理問題等挑戰。文章也強調了其在個性化治療計劃中的有效性,並希望能幫助醫療專業人員更好理解其優缺點。 PubMed DOI

本研究探討ChatGPT在簡化腎小球疾病治療資訊的能力,幫助患者更易理解。針對67種腎小球疾病,使用兩種問題類型進行測試。結果顯示,普通解釋的可讀性為高中水平,調整後可讀性改善至中學水平,且可理解性顯著提升。然而,針對特定閱讀水平的準確性較低。總體而言,ChatGPT在提升資訊可讀性方面潛力大,但需進一步研究以確保內容的全面性及倫理使用。 PubMed DOI

這項研究探討了大型語言模型ChatGPT在腎臟科病例分診的有效性,特別是在因人口老化導致腎臟問題增加的情況下。兩位腎臟科醫生設計了100個病人情境,結果顯示ChatGPT在判斷腎臟科需求的準確率高達99-100%,選擇正確子專科的準確率為96-99%,兩輪評估的協議率為97%。雖然結果顯示AI能提升醫療分診的效率與準確性,但仍需改進在複雜病情的多學科護理整合方面。整體而言,研究強調了AI在改善臨床決策及發展量身訂做的分診系統的潛力。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI