LLM 相關三個月內文章 / 第 9 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較三款AI語言模型在回答川崎病問題時的表現。結果顯示,Claude 3.5 Sonnet 答案最準確,特別適合專業醫師提問;Gemini 1.5 Pro 則在家長提問時最容易理解。不過,所有模型都有可能出現錯誤資訊。建議家長查詢時優先選用 Claude 3.5 Sonnet 並用適合家長的提問方式。未來還需持續改進AI模型,確保醫療資訊正確可靠。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT 3.5和4.0在針對成人峽部脊椎滑脫症時,依照2014年NASS指引給建議的整體一致性只有中等(3.5版45%,4.0版42%)。遇到有明確指引的問題表現較好,但面對沒有直接指引的問題時,準確度就明顯下降,顯示ChatGPT在處理複雜醫療議題和最新醫學證據上還有待加強。 相關文章 PubMed DOI 推理

這篇研究指出,韓國的國際研究生因階層文化和快節奏生活,常感壓力大、孤單,難以兼顧學業和生活。雖然他們努力適應,但效果有限。建議學校和職能治療師提供有文化敏感度的支持,例如認知行為治療,協助學生減壓、發聲,提升學業和生活表現。 相關文章 PubMed DOI 推理

一份針對蘇格蘭住院醫師訓練計畫主任的調查發現,多數主任支持住院醫師申請國際進修假,認為有助於合作與學習,但現有進修預算不足,常連必修課程都不夠用,住院醫師常需自費。主任們也擔心限制國際進修假會影響訓練品質和招募。建議政策應支持國際學習並檢討預算。 相關文章 PubMed DOI 推理

研究用360題心臟科考題測試ChatGPT,初始得分54.44%,給予學習資料後提升到79.16%,接近人類平均。ChatGPT在基礎科學和藥理學表現佳,但解剖學較弱,且無法處理圖片等視覺資料。顯示AI能透過學習進步,但還有待改進,未來需更多研究優化醫學教育應用。 相關文章 PubMed DOI 推理

這篇研究用MAMMAL AI模型,僅靠序列資料就能準確預測抗體和流感HA抗原的結合及阻斷效果。模型對已知抗體和抗原表現優異(AUROC ≥ 0.91),對新抗原也不錯(AUROC 0.9),但遇到全新抗體時準確度會下降。這顯示AI有助於抗體篩選,但還需要更多元的抗體資料來提升預測新抗體的能力。 相關文章 PubMed DOI 推理

環境科學中的系統性回顧面臨挑戰,因為不同學科的方法和術語不一致,影響證據篩選的透明度和可重複性。為了解決這個問題,我們開發了一個AI輔助的證據篩選框架,並以溪流糞便大腸桿菌濃度與土地使用的關係為案例。透過微調ChatGPT-3.5 Turbo模型,我們在篩選120篇文章時,發現AI與專家之間有顯著一致性,顯示出AI在篩選中的潛力。這個框架能提高篩選效率,減少成本,並為AI在環境研究中的應用提供新方向。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs),特別是GPT-4和GPT-3.5,在運動外科和物理治療的臨床決策效果。56位專業人士使用5點李克特量表評估10個常見肌肉骨骼疾病的情境。結果顯示,GPT-4在診斷準確性、治療計畫和手術建議上均優於GPT-3.5,且內部一致性更高。研究指出,GPT-4能提升醫療診斷和治療規劃,但AI應作為決策支持工具,而非取代專家判斷,未來需進一步探索AI在臨床的應用。 相關文章 PubMed DOI 推理

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4.0、ChatGPT-4o 和 Claude—在生成手術報告和出院摘要的效果。研究重點在準確性、效率和質量,由整形外科醫生進行驗證。可讀性用不同指數評估,可靠性則用DISCERN分數衡量。結果顯示,Claude在速度和輸出質量上優於其他模型,成為醫療文檔中最有效率的LLM,可能改善醫患溝通和病人結果。研究強調選擇合適的LLMs對臨床應用的重要性。 相關文章 PubMed DOI 推理

這項研究探討了ChatGPT-4在生成科學摘要方面的能力,分析了十篇來自PubMed的整形外科文章。研究使用Flesch-Kincaid年級水平和可讀性評分來評估生成的摘要。結果顯示,雖然ChatGPT生成的摘要在可讀性上略高,但評估者90%的時間偏好ChatGPT的版本,並認為其更清晰簡潔。整體來看,研究顯示ChatGPT能有效生成高品質的科學摘要,但仍需進一步研究來確認這些結果。 相關文章 PubMed DOI 推理