LLM 相關三個月內文章 / 第 136 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

1978年的阿爾瑪-阿塔宣言推動了普及健康的轉變,WHO隨後倡導健康城市。1984年多倫多會議後,這一概念受到重視,1986年在里斯本啟動首個試點項目。最近的研究調查了九個亞洲國家在數位健康城市的能力,結果顯示需建立網絡支持數位健康倡議。柬埔寨面臨電力和基礎設施挑戰,南韓強調遠距醫療,中國則專注數據庫建設。研究強調大數據政策及個人信息保護,並建議提升數位素養以確保倡議有效性。 相關文章 PubMed DOI

這項研究探討了OpenAI的生成式AI模型o1作為虛擬醫療助手(GPT-NS)在周邊神經手術決策中的應用。透過模擬五個臨床情境,AI協助外科醫生處理病歷、診斷和治療計畫,並提供案例摘要。神經外科專家和住院醫師評估GPT-NS的表現,平均得分4.3。雖然AI在理解臨床問題和案例呈現上表現優異,但在診斷排序和治療建議上仍需改進。研究強調專家評估AI輸出的重要性,並建議未來應提升AI能力並整合進手術流程。 相關文章 PubMed DOI

這項研究專注於從文本中提取與COVID-19疫苗相關的不良事件資訊,對疫苗安全性監測至關重要。研究比較了大型語言模型(LLMs)和傳統深度學習模型的表現,並探討了模型集成的優勢。使用了VAERS、Twitter和Reddit的數據,識別疫苗、接種和不良事件等實體。多個模型經過微調,最佳集成結果顯示「疫苗」的F1分數為0.878,「接種」為0.930,「不良事件」為0.925,整體微平均F1分數為0.903。研究強調了微調和集成方法在提升性能上的重要性,推進了生物醫學領域的自然語言處理。 相關文章 PubMed DOI

最近的研究探討大型語言模型(LLMs)在臨床決策和考試問題回答的有效性,特別是視覺語言模型(VLMs)的引入。研究評估了GPT-4、Claude-3 Sonnet和Gemini-1.5在德國和美國醫學執照考試中的表現。結果顯示,所有LLMs在文本問題中均達及格,但只有GPT-4在圖像問題中超過及格,表現明顯優於其他模型。GPT-4在文本和圖像問題上也超越了醫學生的歷史表現,顯示其在外科決策和醫學教育中的潛在應用價值。 相關文章 PubMed DOI

這篇論文探討ChatGPT如何幫助醫學生在跨學科通識課程中學習程式設計,並分析他們面臨的挑戰,如學業壓力和認知偏誤。研究採用扎根理論,訪談30名醫學生,找出影響他們使用ChatGPT的意願因素。結果顯示使用意願可分為主動、中立和負面三類,並識別出四個關鍵維度:個人、技術、資訊和環境因素。最後,論文提出增強ChatGPT有效使用的策略,包括風險預防、倫理教育和個性化教學等,以提升程式設計能力。 相關文章 PubMed DOI

在日本,醫療器材的故障和健康問題需報告,JFMDA正努力標準化術語。國際上,IMDRF也有自己的術語標準。為促進國際協調,JFMDA與IMDRF的術語對應至關重要,但目前英日翻譯過程繁瑣且易出錯。本研究旨在找出最佳機器翻譯模型,將IMDRF術語翻譯成日語。研究顯示,GPT-4在各項評估中表現最佳,顯示其能顯著提升醫療術語對應系統的效率。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4o在生成高品質多選題(MCQs)的效果,並與人類專家創建的題目進行比較。參與者為準備香港急診醫學初試的醫生,回答了兩組各100題的MCQs。 主要發現包括:AI生成的題目較容易,且兩組題目的區分能力相似,但AI題目中有更多不準確及不適當的內容,且主要評估較低層次的認知技能。AI生成題目的時間大幅縮短。 結論指出,雖然ChatGPT-4o能有效生成MCQs,但在深度上仍不足,強調人類審核的重要性,結合AI效率與專家監督可提升醫學教育的題目創建。 相關文章 PubMed DOI

圍手術期神經認知障礙(PNDs)是手術後常見的併發症,特別在老年人中,會增加健康風險和醫療成本。研究評估了ChatGPT-4和Gemini在PND管理建議的有效性,並與現有指導方針比較。這項2024年6月的研究使用「圍手術期神經認知障礙的護理方案表」生成AI建議,並由來自五國的評審進行評估。結果顯示,兩者的建議與指導方針相似,但仍需進一步驗證和臨床醫師的反饋,才能應用於臨床。 相關文章 PubMed DOI

最近大型語言模型(LLMs)在即時搜尋和多語言支持上有了顯著進展,但提供健康資訊的安全性仍然很重要。針對七個公開的LLMs進行的評估顯示,英語回應中沒有臨床錯誤,但294個非英語回應中有7個出現錯誤。雖然48%的回應有有效引用,但39%的英語引用來自.com網站,質量堪憂。此外,英語回應的閱讀水平普遍較高,非英語回應也相對複雜。這些結果顯示LLMs在準確性和可讀性上仍需改進,持續的基準測試是必要的。 相關文章 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是GPT-4,在製作癌症臨床試驗教育內容的潛力,旨在提升患者的理解。研究從ClinicalTrials.gov獲取知情同意書,生成簡短摘要和多選題,並透過患者調查和眾包註釋來評估其有效性。結果顯示,摘要內容可讀且具資訊性,患者認為有助於理解臨床試驗並提高參與意願。雖然多選題的準確性高,但當要求提供未明確列出的資訊時,GPT-4的準確性較低。整體而言,研究顯示GPT-4能有效生成患者友好的教育材料,但仍需人類監督以確保準確性。 相關文章 PubMed DOI