LLM 相關三個月內文章 / 第 30 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 相關文章 PubMed DOI

這項研究評估了三個AI模型—ChatGPT、Bard和BingChat—在骨科住院醫師訓練考試中的表現。結果顯示,ChatGPT的準確率為46.3%,BingChat為52.4%,Bard為51.4%。排除圖像問題後,準確率有所提升,ChatGPT達49.1%,BingChat 53.5%,Bard 56.8%。相比之下,醫學生的表現為30.8%,而PGY1至PGY5住院醫師的準確率分別為53.1%到71.9%。整體來看,這些AI模型的表現與第一年住院醫師相似。 相關文章 PubMed DOI

這項研究評估了大型語言模型(LLMs)在解讀Lung-RADS以進行肺癌篩檢中的整合,強調它們在改善放射學實務方面的潛力。結果顯示,Claude 3 Opus和Perplexity的準確率達到了驚人的96%,在表現上超越了其他模型。 相關文章 PubMed DOI

這項研究探討了大型語言模型(LLMs),如GPT-3.5、GPT-4和Llama,在提取針灸穴位位置關係的有效性,特別是使用世界衛生組織的標準作為數據集。研究標註了五種穴位關係,並根據精確度、召回率和F1分數評估模型表現。結果顯示,微調後的GPT-3.5表現最佳,達到最高微平均F1分數0.92,顯示針灸領域的微調對關係提取的重要性。研究建議LLMs可增強針灸的臨床決策支持及教育資源,推進傳統醫學的資訊學發展。 相關文章 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 相關文章 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)在家庭醫學住院醫師訓練考試中的表現,使用了2022年的193道選擇題。結果顯示,ChatGPT 4.0 獲得167分(86.5%),標準化分數730,顯示出100%通過專科考試的機會。相比之下,ChatGPT 3.5 和 Google Bard 的得分較低,分別為66.3%和64.2%。只有ChatGPT 4.0 超過了住院醫師第三年的國家平均分68.4%。研究結果顯示,ChatGPT 4.0 可能是提供醫學概念解釋的有用工具。 相關文章 PubMed DOI

生成式人工智慧(AI)和大型語言模型在資訊處理上有重大進展,特別是在醫學教育中。雖然這些技術帶來機會,但也面臨挑戰,如生成錯誤資訊、偏見、實施成本高及數據安全問題。為了克服這些挑戰,建議改善AI訓練數據、建立驗證流程及遵循倫理指導。儘管如此,生成式AI仍有潛力提升醫學教育,包括個性化教學、模擬臨床情境、及時反饋和簡化評估等,未來可望為醫療專業人員提供更有效的學習體驗。 相關文章 PubMed DOI

這篇文章介紹了心理體系(Psychomatics),探討大型語言模型(LLMs)與人類在資訊處理上的差異。雖然LLMs在學習和語言使用上展現出類似的認知技能,但其基本過程卻截然不同。心理體系透過比較LLMs與生物系統,分析它們在獲取、記憶和利用資訊上的差異。LLMs能夠有效操控語言模式,但缺乏人類的情感和經驗,限制了對複雜關係的理解。最終,這個框架旨在深入了解語言、認知和智慧,並指導更具人性化的人工智慧系統發展。 相關文章 PubMed DOI

看起來你提到的是一份沒有提供摘要的文件或文章。如果你需要幫忙總結或理解內容,隨時可以分享更多細節或特定的段落,我會盡力協助你! 相關文章 PubMed DOI

藥物抗性在癌症治療中是一大挑戰,尤其是化療和靶向治療的反應率不高。為了解決這個問題,研究團隊開發了名為DrugFormer的新模型,這是一個圖增強的大型語言模型,能預測單細胞層級的藥物抗性。DrugFormer在大量單細胞數據上訓練,表現優異,特別是在難治性多發性骨髓瘤和急性髓性白血病的數據分析中,成功識別抗藥性細胞並揭示其分子機制。這項技術有助於個性化治療策略的發展。 相關文章 PubMed DOI