LLM 相關三個月內文章 / 第 142 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

PhenoBrain是一個創新的AI系統,專門用來解決罕見疾病的診斷問題,影響全球約3.5億人。它利用基於BERT的自然語言處理技術,從電子健康紀錄中提取重要資訊,並透過五個新診斷模型進行鑑別。經過在2,271個案例和431種罕見疾病的測試,PhenoBrain的表現超越了多種預測方法,顯示出在臨床環境中提升診斷準確性的潛力。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4和GPT-3.5,如何分析急診部報告以識別與腎結石相關的就診。研究使用標註過的數據集,透過提示優化和微調來提升模型表現。結果顯示,GPT-4的宏觀F1分數為0.833,表現最佳,而GPT-3.5為0.796。微調改善了GPT-3.5的表現,並且加入人口統計和醫療歷史信息有助於決策。GPT-4未顯示種族或性別偏見,但GPT-3.5在種族多樣性建模上有困難。研究強調了LLMs在臨床應用的潛力及偏見問題的重要性。 相關文章 PubMed DOI

本研究探討綠色科技創新(GTI)在中國廢舊電池回收(WPBR)中的角色,強調其對可持續資源管理及經濟增長的重要性。透過PSR-BN-GPT-4模型,研究發現: 1. GPT-4驅動的貝葉斯網絡在因果推理上優於傳統專家知識。 2. 中國WPBR產業的GTI水平偏低,僅有19%機率達到高水平。 3. 影響GTI的因素包括研發投資、綠色金融政策及政府採購政策。 4. 改善WPBR企業GTI的途徑為加強基礎設施及增加研發投資。 這些發現為政策制定者及企業提供了重要見解,助力電池回收的GTI推進。 相關文章 PubMed DOI

這項研究探討患者及陪伴者對傳統與AI生成的結腸癌患者教育材料(PEMs)的偏好。共35名參與者,平均年齡46歲,大多數為女性且擁有大學學位。結果顯示,51%偏好傳統PEMs,49%偏好AI生成的PEMs,兩者之間並無顯著差異。這顯示對這兩種材料的偏好相近,建議未來可進一步研究AI在生成有效PEMs中的潛力,因為AI可能結合傳統材料的優勢,並提高資源使用效率。 相關文章 PubMed DOI

大型語言模型(LLMs)有潛力改變醫療實務,但臨床醫師需注意相關風險,特別是幻覺風險—即模型生成的虛假資訊。這些幻覺可能因訓練數據問題或模型特性而產生,若不妥善管理,可能導致不準確的診斷和治療建議。為了降低這些風險,已開發出一套技術框架,旨在安全地將LLMs整合進臨床實務,並推動更廣泛的機構實施。 相關文章 PubMed DOI

腕管症候群(CTS)是一種常見病症,受到醫療界和大眾的重視。本研究分析了社交媒體平台上有關CTS的資訊質量,並與大型語言模型(LLMs)如ChatGPT和Google Bard的資訊進行比較。研究涵蓋80部YouTube和Instagram影片,發現LLMs提供的資訊質量顯著高於社交媒體影片。醫療專業人士創作的影片得分較高,但53.8%的影片由非醫療作者製作,顯示專業性不足。結論強調需增加醫療專業人士在社交媒體上的參與,以提升正確知識的傳播。 相關文章 PubMed DOI

這項研究評估了大型語言模型(LLM)聊天機器人對於常見病人問題(如下背痛)的回答準確性和可讀性。分析了30個問題,結果顯示120個回答中,55.8%準確,42.1%不準確,1.9%不清楚。治療和自我管理的回答較準確,風險因素則最不準確。可讀性平均得分為50.94,顯示文本相對困難。此外,70%-100%的回答都有健康建議的免責聲明。總體而言,雖然LLM聊天機器人有潛力,但準確性和可讀性差異可能影響病人理解。 相關文章 PubMed DOI

這項研究探討了GPT-4在放射科報告中檢測和修正錯誤的潛力,特別針對頭部CT掃描。隨著放射科醫師的工作壓力增加,GPT-4在錯誤檢測方面表現優異,解釋性錯誤敏感度達84%,事實性錯誤敏感度達89%。相比之下,人類讀者的表現較差,檢查時間也較長。雖然GPT-4在識別錯誤時有些假陽性,但仍顯示出其在減輕醫師負擔和提升準確度的潛力,值得在臨床實踐中進一步探索。 相關文章 PubMed DOI

將大型語言模型(LLMs)應用於醫療保健能顯著提升臨床流程與病人護理,但也面臨準確性、可及性、隱私及法規等挑戰。雖然專有模型如GPT-4和Claude 3受到關注,開源模型如Llama 3和LLaVA-Med對醫療機構和研究人員有獨特優勢,但因不熟悉和基礎設施不足,採用速度較慢。這篇文章提供放射學中實施開源LLMs的教程,包括文本生成、提示工程等實用範例,並比較開源與專有模型的優缺點。 相關文章 PubMed DOI

勃起功能障礙(ED)是影響男性性健康的常見問題。本研究評估了兩個AI聊天機器人,ChatGPT和Gemini,對ED相關問題的回答質量。研究發現,ChatGPT成功回答所有15個問題,而Gemini則未能回答兩個。質量評估顯示,Gemini的低質量回答較多,且兩位泌尿科醫生對ChatGPT的評分一致性為92%,Gemini則為95%。雖然這些AI能快速回應,但仍無法取代醫療專業人員的護理,需進一步改進。 相關文章 PubMed DOI