LLM 相關三個月內文章 / 第 50 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討大型語言模型(LLMs),如ChatGPT,對甲狀腺疾病病人問題的回答效果,並與醫生的回應進行比較。分析了來自Reddit的33個問題,並收集了醫生及LLMs(GPT-3.5和GPT-4)的回應。 結果顯示,GPT在準確性、質量和同理心上均優於醫生,特別是GPT-4表現最佳。這顯示LLMs能提供更準確、完整且具同理心的回應,可能有助於減輕醫生的工作負擔及降低職業倦怠。 相關文章 PubMed DOI

這項研究調查了學生藥劑師對人工智慧(AI)和機器學習(ML)在藥學實務中的看法。研究發現,學生藥劑師對AI/ML持正面態度,但對其應用了解有限。他們認為AI/ML能提高準確性和效率,但也擔心警報疲勞和錯誤的風險。參與者希望能進一步了解這些技術,並希望將其納入藥學教育中。研究強調了藥學實務中整合AI/ML的需求,並呼籲藥劑師、教育機構與AI/ML公司合作,以克服挑戰。 相關文章 PubMed DOI

這項研究探討了基於變壓器的自然語言處理(NLP)如何改善偶發性主動脈瘤(AAs)的檢測與管理。研究目標包括評估NLP管道的有效性、量化臨床影響及促進約診協調。分析了3,229份放射學報告,結果顯示NLP在檢測AAs方面準確性高,F1分數介於96.7%到99.4%之間,優於手動查閱。研究中,14.1%的患者有偶發性發現,55.7%成功聯繫並協調後續約診,顯示NLP能有效增強主動脈瘤的監測,改善患者結果。 相關文章 PubMed DOI

這項研究評估了ChatGPT-3.5在回答青光眼相關常見問題的有效性。由十二位專家組成的評估小組針對四個主題的40個問題進行評分,結果顯示AI的回答整體得分為正面,平均約為4分(「同意」)。不過,全面性得分最低(3.7),顯示回答常缺乏深度。具體來說,20%的問題在連貫性上得分低於4,42.5%在事實性上得分低於4,60%在全面性上得分低於4,20%在安全性上得分低於4。專家指出AI缺乏個別病人情況的考量。因此,雖然AI的回答普遍可接受,但不應依賴其進行青光眼的個人化諮詢。 相關文章 PubMed DOI

這項研究探討了一種免持的放射科報告系統,結合語音轉文字技術與生成式人工智慧,旨在提升效率並減輕醫師負擔。研究比較了傳統報告生成方式與使用GPT-4的自動化過程,分析了100份胸部及肌肉骨骼的報告。主要發現顯示,這個系統能減少報告生成時間38%(p < 0.0001),且報告質量普遍較高,但在某些複雜案例中偶有不準確。結論指出,整合這些技術可改善工作流程,讓醫師能更專注於病人護理,但仍需進一步提升報告的全面性與準確性。 相關文章 PubMed DOI

社會支持(SS)和社會孤立(SI)對精神健康影響深遠,通常在電子健康紀錄中以非結構化的臨床筆記記錄。為了自動提取這些資訊,研究人員在Mount Sinai Health System和Weill Cornell Medicine進行了一項研究,標註了525份筆記,建立了黃金標準語料庫。他們開發了兩種系統:基於詞彙的規則系統(RBS)和大型語言模型(LLM)。結果顯示,RBS在提取SS/SI方面表現優於LLM,顯示出更高的準確性。這表明RBS的設計更符合標準,而LLM則較為一般化,未來仍需進一步研究以確認這些結果。 相關文章 PubMed DOI

這項研究探討了將人工智慧工具ChatGPT應用於醫療決策的可行性,特別針對小兒阻塞性睡眠呼吸暫停症(OSA)在腺樣體及扁桃體切除術後的管理。研究比較了ChatGPT的回應與2024年專家共識的52項聲明,結果顯示63%的回應與專家意見一致,但有13%的回應差異超過2分,尤其在外科和醫療管理方面。這些不一致性引發了對ChatGPT可靠性的擔憂,強調了在醫療領域中對AI工具的仔細評估和改進的必要性,並呼籲AI開發者、醫療專業人員及監管機構之間的合作。 相關文章 PubMed DOI

這篇系統性回顧探討大型語言模型(LLMs)在心理健康領域的應用,特別是在早期篩檢、數位介入和臨床應用的有效性。回顧分析了2017年到2024年期間的40篇文章,結果顯示LLMs能有效識別心理健康問題並提供電子健康服務,但也存在文本不一致、幻覺現象及缺乏倫理框架等風險。主要挑戰包括需要多語言專家標註的數據、內容可靠性及數據隱私等倫理問題。雖然LLMs不應取代專業服務,但作為輔助工具的潛力值得進一步研究。 相關文章 PubMed DOI

大型語言模型(LLMs)因應用廣泛而受到重視,但其訓練和部署的計算需求也隨之增加。記憶電阻交叉陣列(memristor crossbars)因其小巧和高能效,成為解決方案,特別適合計算機視覺任務。然而,將LLMs部署在此技術上面臨三大挑戰:1. LLM增長超出記憶電阻晶片能力;2. 多頭注意力區塊需非靜態乘法,傳統技術無法處理;3. 複雜非線性運算表現不佳。為解決這些問題,我們提出新架構,能在單晶片上部署LLMs,測試顯示準確度損失極小,並顯著降低能量消耗。 相關文章 PubMed DOI

這項研究評估了ChatGPT在根據病人症狀推薦醫療專科的效果,使用了31,482個標記有27個專科的醫療問題。結果顯示,ChatGPT的準確率為0.939,F1分數為0.134,雖然不及經過微調的韓國醫療BERT(KM-BERT)的準確率0.977和F1分數0.587,但它能提供有價值的解釋,幫助病人理解潛在的醫療狀況。雖然在專科推薦上不如KM-BERT,ChatGPT的對話能力仍可能改善病人獲取資訊的過程。 相關文章 PubMed DOI