LLM 相關三個月內文章 / 第 59 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了使用大型語言模型(LLM),特別是ChatGPT 3.5,來評估伊利諾伊大學醫學院臨床前醫學生的批判性評估作業。研究發現,ChatGPT與教師評分的協議率達67%,顯示出合理的一致性,且能有效減少教師評分時間五倍,潛在節省約150小時。總體而言,這項研究建議使用ChatGPT等LLM能有效協助醫學教育中的作業評估,減輕教師負擔。 相關文章 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT,在婦產科臨床決策中的應用潛力。結果顯示,雖然ChatGPT在某些情況下能提供正確答案,但在其他情況下表現不佳,顯示出其準確性和可靠性有限。因此,醫療專業人員需仔細審查AI的建議,並強調需要更清晰的指導方針。持續的技術進步對改善AI在臨床中的角色也很重要。總體而言,AI在醫療領域有潛力,但目前最適合在受控環境中使用,以確保病人安全和護理準確。 相關文章 PubMed DOI

這篇評論探討中樞神經系統的恆定性,強調它在維持生理穩定方面的重要性,尤其在面對內外刺激時。恆定性機制對保護神經功能及防止腦部疾病(如癲癇)至關重要。文章分析恆定性可塑性與Hebbian可塑性之間的互動,特別是興奮性與抑制性信號的不平衡如何促進癲癇發作。此外,當自然機制失效時,還探討了增強恆定性的治療策略,包括創新的基因療法,如光遺傳學和閉環系統,這些方法能模擬恆定性過程以對抗腦部疾病。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 相關文章 PubMed DOI

這項研究評估了三本主要整形外科期刊中隨機對照試驗(RCT)摘要對CONSORT指導方針的遵循情況。研究人員利用GPT-4 AI技術分析了2010至2023年間的371篇RCT摘要,結果顯示平均遵循分數為10.05,顯示出多處需改進。主要問題包括試驗設計、參與者詳情、介入描述等方面的合規性不足。此外,試驗註冊和資金資訊也常缺失。研究強調AI在提升遵循評估的潛力,並呼籲研究者更應遵循CONSORT指導方針,以提升整形外科RCT報告的質量與透明度。 相關文章 PubMed DOI

隨著生成式人工智慧在醫療保健中的關注增加,學術醫療中心對安全基礎設施的需求愈加迫切。若缺乏全面的安全系統,研究人員可能會開發不安全的流程,導致受保護的健康資訊洩露或被不當用於AI模型訓練。為了解決這些問題,我們機構已建立安全通道,連接Azure OpenAI Service,並使用私人OpenAI實例,確保數據隱私。這樣的設置讓研究人員能合規且高效地利用大型語言模型,應用於醫療保健領域,強調集中式、安全AI解決方案的重要性。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)和生成智能如何改變時尚產業的設計、生產和零售流程。研究指出這些技術能帶來產品個性化和改善顧客互動的好處,但也面臨空間理解和設計細節的挑戰。為了克服這些問題,建議採用混合智能的方法,並強調在空間參數理解和設計工具上的進步。最後,研究認為儘管LLMs在時尚領域潛力巨大,但仍需進一步研究以提升其整合性和有效性。 相關文章 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard,針對特發性顱內高壓(IIH)的病人教育材料(PEMs)生成能力。使用三種提示進行評估,結果顯示所有模型都能產生高質量且準確的PEMs,但只有ChatGPT-4能生成符合六年級閱讀水平的內容,並成功重寫現有材料而不影響質量。結論是,特別是ChatGPT-4在創建高可讀性和準確性的病人教育材料方面表現優異。 相關文章 PubMed DOI

這篇系統性回顧探討了自然語言處理(NLP)和大型語言模型(LLMs)在風濕病學的應用,特別是在分析非結構化臨床文本方面的成效,能提升疾病檢測、診斷及病人管理。研究從1491篇文章中篩選出35項,著重於NLP模型的原創研究。結果顯示,這些模型在識別類風濕性關節炎、脊椎關節炎及痛風等疾病上準確性高,並在疾病管理及預測方面展現潛力。不過,仍需進一步研究以應用於罕見及複雜疾病,並克服現有限制,以便更好地融入臨床實踐。 相關文章 PubMed DOI

這項研究利用大型語言模型(LLMs),如GPT-4-turbo和Claude-3-Opus,開發自動化數據提取流程,針對持續系統性回顧(LSRs)。研究分析了10個臨床試驗的數據,專注於23個關鍵變數。結果顯示,在提示開發集中,96%的回應一致,準確率高達0.99;測試集中則為87%,準確率0.94。對於不一致的回應,GPT-4-turbo和Claude-3-Opus的準確率分別為0.41和0.50,經交叉評析後,51%的回應變得一致,準確率提升至0.76。研究顯示,LLMs能有效提取數據,並透過交叉評析提高準確性。 相關文章 PubMed DOI