LLM 相關三個月內文章 / 第 101 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 相關文章 PubMed DOI 推理

這項研究建立了一個命名實體(NE)框架,從癌症基因組圖譜-甲狀腺癌(TCGA-THCA)數據庫的臨床筆記中提取資訊,專注於良性分化甲狀腺癌患者的AJCC分期和ATA風險類別。框架包含標註指導方針、數據標記、提示策略及評估代碼。我們測試了四個大型語言模型,並將其輸出與專家數據比較。基於50份病理筆記建立的框架,經289份筆記和35個偽臨床案例驗證,成功提高了分期和風險分類的效率與準確性。 相關文章 PubMed DOI 推理

這項研究評估了幾個大型語言模型(LLM)聊天機器人,包括Google、Bard、GPT-3.5和GPT-4,對於慢性健康狀況的病人教育效果。研究針對高血壓、高脂血症、糖尿病、焦慮和情緒障礙等五個常見健康問題進行評分。結果顯示,GPT-3.5和GPT-4在內容的全面性和質量上表現優於Bard和Google,但後者的回應更易讀。整體來看,這項研究建議LLM工具在健康查詢中可能比傳統搜尋引擎提供更準確的信息,適合用於病人教育。 相關文章 PubMed DOI 推理

提出的多模態特徵異質攻擊(MFHA)框架,旨在提升醫學影像中視覺-語言預訓練(VLP)模型的對抗攻擊效果與可轉移性。MFHA利用三元組對比學習的特徵異質化方法,結合數據增強與對比學習技術,強化對抗能力。為了增強可轉移性,框架採用跨模態變異聚合,透過文本引導影像攻擊來擾動特徵。實驗結果顯示,MFHA的可轉移攻擊能力平均提升16.05%,在對抗MiniGPT4和LLaVA等大型語言模型時表現優異。該框架已在GitHub上公開,供大家進一步探索。 相關文章 PubMed DOI 推理

這項研究探討了ChatGPT-4.0如何協助語言治療師(SLPs),並評估其在語音、語言和吞嚥障礙任務中的表現。十五位SLP針對AI的回應進行評分,涵蓋報告撰寫、評估材料、臨床決策、治療刺激、治療計畫及客戶訓練材料等六大領域。結果顯示,ChatGPT-4.0在報告撰寫和臨床決策支持上表現良好,但在治療刺激和計畫生成上則有挑戰。總體而言,這項AI工具顯示出協助SLP的潛力,但仍需進一步研究以提升其有效性。 相關文章 PubMed DOI 推理

這項研究探討了從非侵入性腦部錄音重建語言的挑戰,傳統上是透過分類方法將腦部數據與預定語言候選項匹配。作者提出一種新方法,利用自回歸生成技術,讓大型語言模型(LLM)直接將功能性磁共振成像(fMRI)解碼後的腦部表徵作為輸入,省去預先構建候選項的步驟。這種方法能生成高品質內容,特別對意外內容的反應更佳,並在各種任務中表現優於傳統分類方法,顯示腦語言介面的潛力。 相關文章 PubMed DOI 推理

您的研究探討了使用ChatGPT學習先進駕駛輔助系統(ADAS)的效果,與傳統紙本學習相比。透過多選題問卷和NASA任務負荷指數,評估參與者的理解能力和認知負荷。結果顯示,使用ChatGPT的參與者正確率平均高出11%,且報告的認知和身體需求較低,顯示學習體驗更有效且壓力較小。研究強調ChatGPT能滿足不同學習偏好,增強對複雜主題的理解,並建議在教育中整合大型語言模型(LLM)工具,並需進一步研究其在不同族群和學習領域的影響。 相關文章 PubMed DOI 推理

這項研究評估了GPT-4o在回答有關軟組織肉瘤的問題時的有效性,並比較了有無使用檢索增強生成(RAG)的方法。研究使用20個臨床情境問題,兩位肉瘤專家評估回答的準確性和安全性。結果顯示,使用RAG的GPT-4o錯誤率從40%降到10%,且90%的相關資訊被正確引用。儘管如此,模型在某些複雜案例中仍有錯誤,顯示在臨床應用中需謹慎,特別是對於罕見疾病,並強調人類專業知識的重要性。 相關文章 PubMed DOI 推理

這項研究專注於運用深度學習技術來改善從全切片影像(WSIs)生成病理報告的過程。由於WSIs的組織複雜性和龐大尺寸,挑戰不少。研究提出了一個多層次區域特徵編碼網絡,能有效提取相關特徵並過濾不必要的信息,提升報告生成的準確性。此外,還加入了知識檢索模組,並使用大型語言模型(LLM)來增強系統的可擴展性。評估結果顯示,這種方法在報告生成上超越了現有技術,提供了一個有效的解決方案。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-4在重症醫學的表現,使用的數據來自中國的健康專業技術考試。ChatGPT-4回答了600個問題,成功率達73.5%,超過60%的及格標準,基礎知識的準確率最高,達81.94%。單選題表現(76.72%)優於多選題(51.32%)。雖然它在臨床決策和醫學教育上顯示潛力,但仍需醫療專業人員的監督,以確保準確性和病人安全。 相關文章 PubMed DOI 推理