LLM 相關三個月內文章 / 第 82 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究介紹了GRASP,一種基於變壓器的模型,旨在利用電子健康紀錄(EHR)數據來提升疾病預測的準確性。透過將醫療代碼整合進大型語言模型,GRASP能有效預測21種疾病及全因死亡率,並在多個醫療系統中表現優異。訓練於英國生物銀行的GRASP,在FinnGen和西奈山醫院的測試中,C指數分別提升了83%和35%。即使數據集未統一,GRASP仍能準確預測疾病風險,顯示出其在不同醫療系統中可靠的應用潛力。 相關文章 PubMed DOI 推理

這項研究探討了大型語言模型 ChatGPT 在解釋癲癇發作的臨床表現,以定位藥物抗性局部癲癇患者的癲癇病灶區的有效性。準確的病灶區定位對外科治療至關重要。研究比較了 ChatGPT 與癲癇專家的表現,使用了852組公開數據和184組台灣私有數據。結果顯示,ChatGPT 在額葉和顳葉的敏感性高達80-90%,且在常見病灶區的表現顯著優於專家。總體而言,ChatGPT 可成為癲癇術前評估的有用工具,未來隨著技術進步,其可靠性和有效性有望提升。 相關文章 PubMed DOI 推理

這項研究探討如何利用大型語言模型(LLMs)預測慢性下背痛患者的安慰劑反應者,透過分析患者的訪談內容。安慰劑效應是指患者因期待而從無效治療中獲得疼痛緩解,了解影響因素對非藥物疼痛管理很重要。研究者重新分析了兩項臨床試驗的數據,開發的預測模型在新數據上的準確率達74%。結果顯示,LLMs能揭示與安慰劑反應相關的心理社會因素,並識別情緒相關的語言模式,為理解治療結果中的生物心理社會因素提供新視角。 相關文章 PubMed DOI 推理

生成式人工智慧工具如ChatGPT的興起,讓人對傳統高等教育的評估方式產生疑慮。這些工具能輕鬆完成論文和選擇題,挑戰了評估的公正性。因此,尋找替代的評估策略變得非常重要,這些策略仍能有效評估學生對基礎知識的理解和記憶。這個議題對生物醫學科學家的專業註冊及其教育者特別重要,影響也擴及整個高等教育領域。 相關文章 PubMed DOI 推理

這段文字探討了深度學習人工智慧在放射學和核醫學的潛力,指出它在診斷影像的速度、準確性和可靠性上可超越人類專家。不過,作者也提到人工智慧的限制,特別是在治療決策中,因為它缺乏真正的理解和情感。文中提倡將人工智慧工具與核醫師的直覺結合,提升病人照護,並保持同理心和責任感,最終目標是創造符合病人需求的個人化治療策略。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-4和Bing Chat對34個青光眼常見問題的回應,重點在適當性、準確性和可讀性。結果顯示,ChatGPT-4的適當回應比例為88.2%,高於Bing Chat的79.2%。兩者在準確性上差異不大,ChatGPT-4略高(3.86),Bing Chat為3.70。可讀性方面,兩者的回應對一般美國成年人來說都較難理解,ChatGPT-4的字數平均為316.5,明顯高於Bing Chat的61.6字。總體而言,雖然兩者都提供適當回應,但ChatGPT-4的回應較複雜且可讀性較低。 相關文章 PubMed DOI 推理

這項研究評估了GPT-4和PaLM2兩個大型語言模型在分析偏頭痛文獻的有效性,特別是針對偏頭痛藥物的臨床試驗摘要進行情感分析。由於偏頭痛影響超過十億人,且新研究不斷出現,需有效分析相關資訊。研究從FDA批准的藥物中提取名稱,並使用PubMed的相關標題進行摘要識別。結果顯示,兩個模型對藥物的正面評價與現有治療指導一致,建議這些模型可作為提升偏頭痛研究文獻回顧效率的工具。 相關文章 PubMed DOI 推理

醫學生常面臨高壓、睡眠不規律和疲勞等問題,影響身心健康。為了解決這些困擾,PROMESS-Sleep 臨床試驗計畫透過三個階段的睡眠管理,幫助醫學生改善睡眠。計畫包括與睡眠專家的個別會議、自我照護教育及個人化目標設定。研究將評估45名里昂東醫學院四、五年級醫學生的睡眠和疲勞情況,主要結果為匹茲堡睡眠品質指數(PSQI)分數變化。研究已獲倫理批准,並將在科學會議及期刊上分享,期望成為醫學教育中促進健康的可持續方案。 相關文章 PubMed DOI 推理

您的提案提出了一種創新的方法,結合自然語言處理(NLP)技術與神經影像數據,來改善精神病診斷。計畫使用ChatGPT進行互動式病人訪談,捕捉傳統方法可能忽略的情感與心理洞察,並創建特徵矩陣,結合4D fMRI數據,讓神經網絡預測精神病診斷。結果顯示準確率達85.7%,顯著優於傳統方法,並且統計驗證支持其有效性。這種整合方式不僅提升診斷精確性,還有潛力改變臨床實踐,但仍需進一步研究以擴展至不同人群。總體而言,這是精神病診斷領域的一個有前景的進展。 相關文章 PubMed DOI 推理

這項研究探討了兩款AI聊天機器人,ChatGPT和Perplexity AI,在診斷不同類型的發聲障礙(有機性、功能性和神經性)的效果。第一個實驗中,37名患者的聲音自我評估和聲學分析結合使用;第二個實驗則僅用27名患者的聲學分析。結果顯示,ChatGPT雖提供指導,但未進行數據分析,而Perplexity AI在第一個實驗中與專家診斷的吻合度為0.773,但第二個實驗僅為0.067,顯示缺乏顯著性。研究認為目前AI在臨床診斷發聲障礙方面尚不成熟,未來需進一步研究以提升其潛力。 相關文章 PubMed DOI 推理