LLM 相關三個月內文章 / 第 49 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討大型語言模型(LLMs),特別是ChatGPT和Gemini,在根據手術記錄生成當前程序術語(CPT)代碼的有效性。分析了10個案例,將AI生成的代碼與專家手動編碼進行比較。結果顯示兩者表現相似,準確性無顯著差異。Gemini的正確回應率稍高(30%對20%),而ChatGPT則有更多部分正確的回應(50%對40%)。研究指出,AI有潛力提升編碼準確性並減少醫療帳單的行政負擔,未來將探討其在其他外科領域的應用。 相關文章 PubMed DOI 推理

這項研究介紹了DS-MVP,一種新方法,用來預測人類基因組中錯義變異的疾病特異性致病性。與傳統方法不同,DS-MVP利用深度學習模型捕捉變異特徵,並用XGBoost模型針對特定疾病進行微調,提升預測準確性。評估結果顯示,DS-MVP在多種數據集上表現優於現有方法,並能有效識別與特定疾病相關的變異。研究強調不同特徵對模型性能的重要性,顯示DS-MVP在改善疾病診斷和臨床研究中的潛力。 相關文章 PubMed DOI 推理

華法林是一種常用的抗凝劑,雖然能有效預防中風和血栓,但因治療範圍狹窄和藥物相互作用多,管理劑量上對醫生來說相當具挑戰性。為了解決這些問題,研究推出了Warfa-Check,一個雙語的AI網路應用程式,幫助使用者識別華法林的潛在藥物相互作用。這個應用程式友好易用,能接受文字、圖片或語音指令,並提供顏色編碼的警示,提升用戶的安全性。未來計畫還包括擴展到其他抗凝劑及整合電子健康紀錄。 相關文章 PubMed DOI 推理

病人報告結果量測(PROMs)對於了解病人的臨床經驗很重要,但傳統問卷格式可能影響其實用性和病人的接受度。這篇評論探討大型語言模型(LLMs)在提升PROM數據收集和解釋的潛力。透過LLMs,我們能創造更互動的PROMs,讓病人能即時在數位平台上回應和評分。這些LLM-PROMs應在各方參與下開發,並與傳統PROMs驗證,能在現實環境中補充現有量測,捕捉更相關的病人信息,促進臨床應用。 相關文章 PubMed DOI 推理

這項研究探討如何利用人工智慧(AI)提升藥學教育,特別是在團隊學習中。雖然案例學習和模擬病人互動效果良好,但提供一致且個性化的指導仍具挑戰。研究人員開發了一個AI輔助的病人案例討論模擬,旨在幫助藥學博士(PharmD)學生整合基礎科學與臨床決策,特別是在免疫學課程中。 這個AI系統基於大型語言模型,專注於分析症狀、解釋檢查結果及藥師角色。評估標準涵蓋病情識別等能力,並給予不同權重。結果顯示,AI模擬器能標準化臨床討論,並提供個性化學習體驗,為藥學教育帶來可擴展的解決方案。 相關文章 PubMed DOI 推理

這項研究探討了大型語言模型(LLM)在增強案例學習中的應用。結果顯示,LLM能夠根據學生的問題進行評估,成功遵循劇本的比例高達97.1%(857個案例中有832個)。即使在少數偏離的情況下,仍有96.0%的案例(24個中有25個)提供了合適的醫學回應。研究表明,LLM在教育上是可行的,但仍需進一步研究以了解其對學習成果的影響。 相關文章 PubMed DOI 推理

這項研究調查了沙烏地阿拉伯藥師對於日常工作中使用ChatGPT的知識、態度和實踐。研究於2023年5月至2024年7月進行,涵蓋1,022名利雅德藥師。結果顯示,78.7%的受訪者了解藥學中的人工智慧,90.1%認識ChatGPT。雖然64.1%對其持正面態度,但只有24.3%定期使用。影響因素包括學術職位和6-10年經驗。64%對倫理有顧慮,92%缺乏AI訓練,顯示在藥學中整合AI面臨挑戰,與沙烏地阿拉伯2030願景計畫相符。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT為乳房重建患者生成的問題質量,這些問題是患者可以詢問醫療提供者的。研究將這些問題與可信的線上來源進行比較,並由經驗豐富的外科醫生評估其可接受性及對知情同意和共同決策的貢獻。結果顯示,外科醫生對ChatGPT生成的問題評價很高,16個問題中有15個被認為可接受,且可能增強知情同意過程。值得注意的是,外科醫生難以辨識這些問題是AI生成的,顯示AI工具在準備諮詢上對患者有潛在好處。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs),如ChatGPT和Microsoft Bing Chat,在皮膚科、性病學和麻風問題上的回答效果。研究比較了這些AI模型與12位研究所學生的準確性,並評估了人工幻覺的情況。 研究於2023年8月進行,包含60個問題。結果顯示,Bing Chat的表現最佳,平均正確率為78.2%,ChatGPT為59.8%,人類受訪者則為43%。Bing Chat在簡單和中等難度問題上表現更佳,而ChatGPT在較難問題上較強。研究指出,儘管LLMs表現優於人類,但在某些領域準確性仍不足,需制定規範以防止濫用。 相關文章 PubMed DOI 推理

在英國,43%的成年人在理解健康資訊時有困難。為了解決這個問題,健康教育機構建議患者資訊小冊子應以11歲兒童的可讀性水平撰寫。研究評估了ChatGPT-4及三個皮膚科插件生成的小冊子,並與英國皮膚科醫學會的現有小冊子比較。結果顯示,雖然生成的小冊子未達建議可讀性,但某些平均分數優於BAD的小冊子,特別是“與皮膚科醫生聊天”插件表現佳。然而,ChatGPT-4生成的小冊子缺少一些BAD小冊子中的內容。因此,醫療專業人員需驗證內容的可靠性與質量。 相關文章 PubMed DOI 推理