LLM 相關三個月內文章 / 第 60 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討首次發作精神分裂症(FES)患者的語言異常與腦部語意網絡的關聯。研究者使用大型語言模型(BERT)分析FES患者的語音樣本,發現其語言表達的不可預測性較高。透過功能性磁共振成像(fMRI),研究顯示FES患者在下額回的自我抑制增加,而在後中顳回則減少,這影響了兩者之間的神經連結。研究建議,語言的無序可能源於語意網絡中興奮與抑制的失衡,並指出未來需進一步研究不同語言的情況。 相關文章 PubMed DOI

這項研究開發了一個基於人工智慧的異常檢測模型,幫助醫療人員識別新型疾病並防止疫情擴散。模型使用來自麻薩諸塞州一所醫院的120,714名住院病人數據,基於生成預訓練變壓器(GPT)架構,並透過經驗風險最小化進行訓練。它分析電子健康紀錄,檢測不尋常的病人特徵,並在COVID-19疫情初期成功預測住院情況,達到92.2%的準確率。該模型在異常檢測和死亡預測上表現優異,顯示出在現代醫療中的潛力。 相關文章 PubMed DOI

TUSOM ONR STEM-IMPRESS計畫旨在為來自多元背景的有志醫師提供公平機會,重視賦權、豐富和參與,並強調醫學中的公平性、多樣性和文化代表性,特別是反映新奧爾良社區的特點。 一項針對ChatGPT-4在結腸和直腸外科文獻中生成參考文獻準確性的研究發現,100個引用中只有41個完全準確,且無一包含DOI。67個參考文獻部分準確,但無法達到100%的準確率,且所有文獻的作者信息均不正確。這顯示出ChatGPT-4在學術應用上的潛力,但仍需解決不一致性和準確性問題。 相關文章 PubMed DOI

這項研究的重點在於將大型語言模型的推理能力壓縮成參數較少的小型語言模型,讓它們更容易使用且不影響性能。作者提出了一種新方法,稱為思維方程蒸餾,透過方程式捕捉推理過程,並建立微調小型模型的數據集。此外,他們還提出集成思維蒸餾框架,結合多種思維過程來提升小型模型的推理能力。實驗結果顯示,這些方法顯著提升了小型模型的推理表現。 相關文章 PubMed DOI

這篇論文介紹了MedExpQA,這是一個多語言的基準,專門用來評估大型語言模型(LLMs)在醫療問答的表現。雖然LLMs在醫療執照考試中表現不錯,但仍面臨知識過時和生成不準確資訊的問題。現有基準缺乏參考解釋,讓評估LLM的推理變得困難。MedExpQA提供醫療專業人士的正確與錯誤答案作為參考,研究顯示LLMs在英語的準確率約75%,但其他語言下降10%。作者計劃公開數據、代碼和微調模型,以促進後續研究。 相關文章 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4.0,對於三級醫療機構病人投訴的回應效果。研究比較了ChatGPT與病人關係部門的回應,結果顯示87.2%到97.3%的受訪者更偏好ChatGPT的回應,且其在適當性、同理心等方面得分較高。ChatGPT的回應平均較長,且與高得分有關。研究顯示,ChatGPT能有效提升病人投訴的解決效果,未來可進一步探討AI在醫療系統中的應用潛力。 相關文章 PubMed DOI

這篇系統性回顧探討了ChatGPT在醫療保健的應用,包括教育、研究、寫作、病患溝通等。透過對多個資料庫的搜尋,找到83篇相關研究,顯示ChatGPT能改善科學研究和學術寫作的文法與清晰度,特別對非英語使用者有幫助。不過,它也有不準確性、倫理問題和情感敏感度不足等限制。雖然能簡化工作流程並支持診斷與教育,但仍需謹慎使用,因為資訊可靠性和誤導性回應的風險存在。 相關文章 PubMed DOI

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 相關文章 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 相關文章 PubMed DOI

這項分析評估了AI文本生成器的表現,特別是ChatGPT和Google Gemini在回答臨床問題時的表現。結果顯示,ChatGPT提供的文獻資訊相對準確,但在臨床內容上有不一致的情況。相比之下,Google Gemini則產生了完全虛構的引用和摘要。雖然這兩個工具的回應看起來可信,但實際上存在不準確性,這讓它們作為臨床資訊來源的可靠性受到質疑。 相關文章 PubMed DOI