LLM 相關三個月內文章 / 第 64 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

生成式AI像ChatGPT未來可協助醫療文件處理,減輕醫師行政負擔並提升紀錄標準化。不過,這也帶來偏見、臨床判斷影響、醫病關係改變等倫理疑慮,且出錯時責任歸屬不明。建議應主動告知病人、醫師審查AI草稿、訂定規範及錯誤通報機制,並強化多元訓練資料與醫學教育。 相關文章 PubMed DOI 推理

這項研究發現,像GPT-4這類大型語言模型能把放射科醫師的摘要快速轉成完整CT報告,速度比傳統方式快,品質也差不多。雖然大多數錯誤跟模板有關,重大臨床錯誤很少見,但還是建議要有人工審查,確保報告正確無誤。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4、ChatGPT-4o 和 Claude 3-Opus 在口腔顎面外科題目的答對率都超過九成,但沒辦法完全正確回答自己出的所有題目。帶圖片的題目表現比純文字好,顯示多模態輸入有助提升準確度。不過,AI 偶爾還是會出錯或產生幻覺,使用時要多加留意。 相關文章 PubMed DOI 推理

紐約一項調查發現,多數醫師知道也有興趣用大型語言模型(LLM)虛擬助理,但實際用的人還不多。大家最想用在文獻審閱、病人衛教和醫療紀錄。年輕醫師、住院醫師和女性醫師興趣較高。研究建議未來要加強教育和指引,協助醫療人員安全導入LLM。 相關文章 PubMed DOI 推理

這項研究比較三款主流視覺生成式AI(GPT-4o、Claude-3.5-Sonnet、Gemini-1.5-Pro)在辨識與分級肺腺癌組織學型態的表現。結果發現,Claude-3.5-Sonnet的分級準確率最高,穩定性也不錯,且結合臨床資料後,預後預測效果佳。整體來說,生成式AI,尤其是Claude-3.5-Sonnet,對肺腺癌病理評估和預後有很大幫助。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o在幫助視障者導航時,表現中等,特別是只靠自己描述場景時更明顯。若用人工撰寫的描述,準確度會提升。經過調整的提示語能減少錯誤,但整體還是比不上人類。未來若針對視障者需求訓練AI,有望讓導航協助更精準。 相關文章 PubMed DOI 推理

**重點摘要:** 這項研究測試了兩個大型語言模型(LLMs),用來從真實的臨床紀錄自動產生出院摘要,並用一個經過驗證的評分指標來評分他們的結果。兩個模型的表現差不多,顯示LLMs有潛力協助醫師準備出院摘要,進而減輕臨床醫師的行政工作負擔。 相關文章 PubMed DOI 推理

這項研究比較了ChatGPT-4o和ChatGLM-4兩款AI,針對家長常問的兒童異位性皮膚炎問題,請皮膚科醫師評分。結果發現,兩者表現差不多,回答品質跟專家差不多,能有效提供兒童異位性皮膚炎的照護和治療建議。 相關文章 PubMed DOI 推理

這項研究比較ChatGPT-4.0、ChatGPT-3.5和Google Gemini在回答DDH醫學問題時的表現。結果發現,三款AI的答案準確性都有限,常常有錯誤或遺漏重點。雖然準確度差不多,但Google Gemini的內容最容易閱讀。建議醫師要提醒病患,AI醫療資訊還有很多限制,不能完全依賴。 相關文章 PubMed DOI 推理

生成式AI像ChatGPT,已經在心臟科協助衛教、簡化資訊和提升行政效率。不過,目前還無法解讀影像,且有錯誤資訊和偏見的風險。未來若能結合語言和影像分析,診斷會更精準,但仍需嚴格監督和倫理規範,確保安全有效。 相關文章 PubMed DOI 推理