LLM 相關三個月內文章 / 第 24 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了使用OpenAI的ChatGPT(版本3.5和4.0)來協助分析患者在社區眼科診所的訪談逐字稿。傳統質性研究耗時且繁瑣,研究人員比較了ChatGPT與人類研究者識別的主題。分析三份逐字稿後,研究者找出六個主要主題,並發現ChatGPT的分析時間顯著縮短,版本3.5約11.5分鐘,4.0約11.9分鐘,而人類需240分鐘。ChatGPT生成的主題與研究者的一致性介於66%到100%,顯示出其在質性研究中的潛力與效率。 相關文章 PubMed DOI

這篇文章強調人工智慧(AI)和機器學習(ML)在健康與醫學研究,特別是藥物流行病學中的重要性。它指出藥物流行病學家在應用方法論和研究設計上的專業角色,以有效運用這些技術。文章介紹AI/ML工具如何解決研究問題、評估醫療設備,並促進新算法的跨學科研究。隨著AI/ML的快速進展,知識差距也隨之產生,文章提供核心概念、潛在應用及重要考量,為藥物流行病學領域的專業人士提供資源和參考資料。 相關文章 PubMed DOI

這項研究致力於開發一種整合大型語言模型(LLM;GPT4-Turbo)的自然語言處理(NLP)演算法,目的是自動從電子健康紀錄(EHRs)中提取脊椎手術數據。傳統的手動審查方法繁瑣且易出錯,因此自動化非常重要。演算法採用兩階段流程,先用基於規則的NLP框架識別文本,再由LLM進行驗證。結果顯示,這種方法在準確性、時間效率和成本上均優於傳統方式,顯示出在臨床應用的潛力。 相關文章 PubMed DOI

第三屆亞太果蠅神經生物學會議(APDNC3)將於2024年2月27日至3月1日在日本東京的RIKEN和光校區舉行。這次會議吸引了來自18個國家的218位科學家,154位參加者來自日本以外。會議包含13場科學會議、2場海報會議及3場職業發展會議,特邀演講者包括山本大輔教授和Claude Desplan教授。演講主題聚焦於神經迴路、發展及健康與疾病中的細胞機制,並強調分子遺傳工具的進展及果蠅大腦連接組的研究成果。 相關文章 PubMed DOI

這項研究探討了在醫療保健領域應用預訓練大型語言模型(LLMs)的挑戰,特別是資源有限的情況下。研究開發了三種專門的預訓練方法,包括傳統的遮蔽語言模型、深度對比學習,以及結合醫療元數據的創新方法。結果顯示,對比訓練的模型在分類任務中表現最佳,雖然基於元數據的方法未提升分類性能,但在嵌入集群可分性上有趣的結果。整體而言,這項研究強調了專門預訓練方法在醫療保健自然語言處理中的潛力,並解決了數據隱私和資源限制的問題。 相關文章 PubMed DOI

這篇系統性回顧評估大型語言模型(LLMs)在醫療考試問題上的準確性,並與人類標準比較。回顧納入截至2023年9月10日的英文研究,最終選出32篇符合標準的研究。結果顯示,LLMs的整體準確性為0.61,而美國醫學執照考試(USMLE)為0.51。特別是ChatGPT的準確性達到0.64。研究建議LLMs可協助解決醫療需求,並提出RUBRICC框架,以確保在健康服務中優先考量病人安全與有效性。 相關文章 PubMed DOI

您提出的「示範同意」框架透過區塊鏈和生成式人工智慧,提升生物材料研究的透明度和知情同意。這個系統能追蹤捐贈樣本的使用情況,並讓捐贈者輕鬆理解相關資訊。關鍵點包括:將樣本與NFT關聯以確保資訊安全、提供詳細的元數據、利用大型語言模型與捐贈者互動、增強知情同意過程,以及提升互動性。整體而言,這個模型有助於改善研究中的信任與透明度,促進倫理研究實踐。 相關文章 PubMed DOI

在 HTAi 2023 年年會中,有一場特別的「魚缸」會議,專注於健康技術評估(HTA)如何整合生成預訓練變壓器(GPT)大型語言模型(LLMs)於醫療領域。會議分為內圈和外圈,內圈討論問題,外圈則聆聽。參與者提出約六十個回應,探討 GPT LLMs 在醫療中的應用,包括提升運營效率、增強術語、推進教育、檢測偏見等。這種互動形式促進了即時討論,為 HTA 社群帶來新見解,並推動 HTA 和證據框架的發展。 相關文章 PubMed DOI

這項研究評估了進階AI模型ChatGPT-4在眼窩骨折手術決策中的有效性,於日內瓦大學醫院進行,涵蓋30個案例。研究分為三個階段,結果顯示ChatGPT-4在骨折診斷上達到100%準確率,治療建議的特異性也為100%。不過,對於保守治療的敏感性僅57%,顯示它能識別需要手術的病人,但對於可保守治療的病人則不太有效。整體而言,雖然ChatGPT-4在診斷上表現優異,但在非手術治療建議方面仍有待加強。 相關文章 PubMed DOI

這項研究評估了兩個AI語言模型,ChatGPT 4.0和Google Gemini,在回答79個兒科放射學問題上的表現。結果顯示,ChatGPT 4.0的準確率為83.5%,而Google Gemini則為68.4%,差異顯著(p=0.0255,RR=1.221)。雖然ChatGPT 4.0整體上表現較佳,但在各問題的子部分並未見顯著差異。研究建議未來需進一步使用更大樣本和多模態輸入,以更全面評估AI模型在放射學的有效性。 相關文章 PubMed DOI