LLM 相關三個月內文章 / 第 111 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

您的提案提出了一種創新的方法,結合自然語言處理(NLP)技術與神經影像數據,來改善精神病診斷。計畫使用ChatGPT進行互動式病人訪談,捕捉傳統方法可能忽略的情感與心理洞察,並創建特徵矩陣,結合4D fMRI數據,讓神經網絡預測精神病診斷。結果顯示準確率達85.7%,顯著優於傳統方法,並且統計驗證支持其有效性。這種整合方式不僅提升診斷精確性,還有潛力改變臨床實踐,但仍需進一步研究以擴展至不同人群。總體而言,這是精神病診斷領域的一個有前景的進展。 相關文章 PubMed DOI 推理

這項研究探討了兩款AI聊天機器人,ChatGPT和Perplexity AI,在診斷不同類型的發聲障礙(有機性、功能性和神經性)的效果。第一個實驗中,37名患者的聲音自我評估和聲學分析結合使用;第二個實驗則僅用27名患者的聲學分析。結果顯示,ChatGPT雖提供指導,但未進行數據分析,而Perplexity AI在第一個實驗中與專家診斷的吻合度為0.773,但第二個實驗僅為0.067,顯示缺乏顯著性。研究認為目前AI在臨床診斷發聲障礙方面尚不成熟,未來需進一步研究以提升其潛力。 相關文章 PubMed DOI 推理

這項研究評估了OpenAI的ChatGPT和微軟的Copilot在解剖性全肩關節置換術(aTSA)和反向全肩關節置換術(rTSA)資訊上的質量與可讀性。研究發現,兩者的資訊質量均為「良好」,但Copilot在政策問題上表現更佳,且引用的學術來源較多,顯示其資訊更可靠且易於理解。雖然兩者都能提供有用的資訊,但仍建議將它們視為輔助資源,而非主要資訊來源,因為語言複雜性可能影響病人的理解。 相關文章 PubMed DOI 推理

這項研究評估了GPT-4解讀12導程心電圖的能力,分析了150份心電圖,並將其分類為心律不整、傳導系統異常、急性冠狀動脈症候群等。結果顯示,GPT-4在無臨床背景下的正確率僅19%,但加入臨床情境後提升至45%。特別是在急性冠狀動脈症候群中,準確率從10%增至70%。雖然GPT-4在心電圖解讀上顯示潛力,但準確性受限於臨床背景,顯示目前不適合單獨使用。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs)在法醫傷害評估中的挑戰,因為這領域需要特定知識和準確的信息檢索。作者提出結合檢索增強生成(RAG)、圖形知識庫和深度學習技術,以提升LLMs根據中國《身體傷害程度評估標準》的評估能力。他們建立了一個包含26,199個傷害案例的數據集,並開發了RoBERTa-CNN模型來準確分類傷害。結果顯示,這種方法顯著提高了九個LLMs的準確率,並在犯罪分類中展現多樣性,證明了結合領域知識和先進技術的有效性。 相關文章 PubMed DOI 推理

這項研究評估了九個大型語言模型(LLMs)在醫學領域的表現,特別是在臨床化學和實驗室管理方面。使用零-shot提示法測試109個臨床測驗,結果顯示GPT-4o的準確率最高,達81.7%,其次是GPT-4 Turbo(76.1%)和Claude 3 Opus(74.3%)。這些模型在數字和計算任務上表現優異,顯示出它們能有效運用現有知識協助醫療專業人員進行決策,未來有潛力成為醫療輔助工具。 相關文章 PubMed DOI 推理

肝脂肪變性(脂肪肝)是嚴重肝臟疾病的前兆,會增加健康風險。這項研究探討大型語言模型(LLMs)在急診影像報告中識別肝脂肪變性的潛力。研究分析了200名成人的CT掃描,使用三種Azure OpenAI模型(ChatGPT 3.5、4和4o)進行檢測。結果顯示,這些模型的準確率高達96.2%至98.8%,且評估者間的可靠性極高。研究認為,LLMs能有效識別影像報告中的異常,對早期疾病介入有重要意義,並簡化電子病歷分析過程。 相關文章 PubMed DOI 推理

這項研究旨在開發機器學習和深度學習模型,自動化根據臨床轉診文本制定緊急腦部MRI掃描的協議。研究分析了2016至2019年間的1,953份轉診,並由神經放射科醫師提供參考標準。使用了三種機器學習演算法和兩個深度學習模型,結果顯示GPT-3.5模型在協議預測上達84%準確率,對比劑需求判斷達91%。研究證明這些模型能有效自動化MRI掃描協議的制定,結果已發表。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 相關文章 PubMed DOI 推理

AICHECK的研究評估了ChatGPT在生成持續醫學教育內容的有效性,特別針對痤瘡的回應與NICE指導方針進行比較。研究使用23項問卷,由五位皮膚科醫生評估ChatGPT版本4的輸出。結果顯示質量、可讀性和全面性評分高,但準確性和與指導方針的一致性較低。雖然參考文獻的相關性和適切性獲得好評,但僅62.3%被認為是最新的。研究強調對於有爭議的主題,AI生成內容需嚴格評估和專家監督,以確保準確性。 相關文章 PubMed DOI 推理