LLM 相關三個月內文章 / 第 131 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

大型語言模型像GPT-3、Llama-3等,單靠文字輸入就能比亂猜更準確地分辨笑話,但還是比不上人類。有時候,無論是AI還是人類,都會把只是讓人驚訝但不有趣的句子誤認成笑話。這說明AI在幽默判斷上其實不差,但也反映只靠語言學習還是有極限。 相關文章 PubMed DOI 推理

研究發現,ChatGPT在回答中國病患常見的食道癌問題時,預防和診斷類的答案較正確,但治療和預後相關的答案有三成多部分錯誤。雖然沒有完全錯誤的回答,但在治療建議上還不夠可靠,建議未來需再改進才能推薦給病患使用。 相關文章 PubMed DOI 推理

近年來,AI發展越來越仰賴大量資料和高運算資源,導致開發成本高、取得不易,也不太環保。Neurosymbolic AI 結合多種方法,用較少資料和資源,就能達到強大效果,是更永續的選擇。 相關文章 PubMed DOI 推理

研究團隊用開源大型語言模型微調,讓它們能自動整理心臟超音波報告。其中 EchoGPT(基於 Llama-2)表現最好,產出的總結精簡度幾乎和心臟科醫師寫的一樣好。這技術有望加快報告產出速度又不影響品質,但目前評估 AI 報告的方法還需要改進。 相關文章 PubMed DOI 推理

這篇回顧整理了102篇AI在研究所醫學教育的應用,主要來自北美,聚焦放射科、外科和急診。AI被用於評量、招募和臨床決策,大家對AI的看法也越來越正面。不過,目前研究還有偏誤和異質性高等問題,未來還需要更多研究來補足不足。 相關文章 PubMed DOI 推理

研究團隊開發了 ChemBench 框架,系統性測試大型語言模型(LLMs)在化學知識與推理的表現,並和人類化學家比較。結果發現,頂尖 LLMs 平均表現甚至比專業化學家還好,但在基礎任務上仍會出錯且有時太自信。這顯示 LLMs 在化學領域很有潛力,但也有待改進,未來需加強研究和調整化學教育方式。 相關文章 PubMed DOI 推理

研究團隊開發了BERT-infect模型,專門用來預測哪些病毒可能感染人類,準確度比以往高,特別對過去較少研究的病毒也有好表現。即使病毒基因序列不完整,模型也能運作。不過,目前還難以精確辨識像SARS-CoV-2這類特定病毒的風險,顯示機器學習在預測新興人畜共通傳染病上,還有不少挑戰要解決。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4在調整和執行常見的老年人心理健康問卷時,表現和傳統方法有中到高度的一致性與可靠性。顯示ChatGPT-4有機會成為心理健康評估的輔助工具,但還需要更多研究來驗證其廣泛應用的可行性。 相關文章 PubMed DOI 推理

AI在預測、診斷和管理藥物相關性顎骨壞死(MRONJ)上展現潛力,機器學習和深度學習模型表現優異,語言模型在衛教上也有不錯表現。不過,目前資料品質和臨床應用還有待加強,未來應聚焦於標準化和可解釋的AI模型及臨床指引。 相關文章 PubMed DOI 推理

生成式 AI 工具如 ChatGPT、Claude、Gemini,正快速改變婦產科研究,能加速假說產生、文獻回顧、資料分析與論文撰寫,也有助於教育及未來臨床決策。但風險包括產生錯誤、假文獻、隱私疑慮及過度依賴。建議加強人工監督、查核資料、保護隱私並記錄提示。只要妥善管理,AI 可提升研究效率與品質,但仍需持續監控其準確性與影響。 相關文章 PubMed DOI 推理