LLM 相關三個月內文章 / 第 29 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討大型語言模型(LLMs),特別是GPT-4和GPT-3.5,如何分析急診部報告以識別與腎結石相關的就診。研究使用標註過的數據集,透過提示優化和微調來提升模型表現。結果顯示,GPT-4的宏觀F1分數達0.833,明顯優於基準系統的0.71,而GPT-3.5則為0.796。研究還發現,GPT-4在種族和性別偏見方面表現良好,顯示出其在臨床文本分析的潛力。 相關文章 PubMed DOI

精準醫療雖然帶來健康上的好處,但也面臨數據管理複雜、跨領域合作需求及專業人員教育等挑戰。為了解決這些問題,整合各領域專家知識至關重要,尤其是計算專家與醫療人員的合作。大型語言模型如GPT-4和Claude 3的出現,讓非專業人士也能接觸複雜數據。斯坦福數據海洋(SDO)透過可擴展的雲端平台,提供AI導師和數據可視化工具,促進教育與研究,特別支持經濟弱勢及邊緣化社群,提升生物醫學研究的跨學科合作。 相關文章 PubMed DOI

看起來你提到的是一篇特定文章的更正,該文章的DOI是10.7759/cureus.67641。如果你需要有關這個更正或文章的詳細資訊,請提供更多背景或具體說明你想知道什麼! 相關文章 PubMed DOI

分子生成是人工智慧的一個重要領域,對小分子藥物開發影響深遠。現有方法在某些設計上表現不佳,因此我們提出了FU-SMILES框架,透過片段簡化分子輸入,並推出了FragGPT這個通用分子生成模型。FragGPT在大型數據集上預訓練,能高效生成新分子、連接子設計等,並結合條件生成和強化學習技術,確保生成的分子符合生物學和物理化學標準。實驗結果顯示,FragGPT在生成創新結構的分子方面表現優異,超越現有模型,並在藥物設計中得到驗證。 相關文章 PubMed DOI

在循證醫學中,隨機對照試驗(RCTs)對臨床指導方針至關重要,但傳統的手動數據提取效率低。為了解決這個問題,我們開發了一個針對傳統中醫(TCM)RCT的自動化信息提取模型,使用Evi-BERT結合規則提取技術,從48,523篇研究中提取數據。我們的模型顯著提高了數據的可搜索性和提取效率,並保持高準確性,幫助醫師節省文獻審查時間,加速臨床試驗證據的識別,最終促進精確的臨床指導方針制定。 相關文章 PubMed DOI

這項研究旨在識別和視覺化難治性肌肉骨骼疼痛綜合症的病人群體,特別是纖維肌痛症。研究涵蓋202名患者,發現78%符合纖維肌痛症標準,且許多人有精神或風濕性疾病。透過層次聚類分析,識別出五種不同的患者表型,主要區別在於獨居、體重指數、疼痛類型等。研究還開發預測模型,顯示某些藥物和獨居對疼痛減輕有負面影響,強調了解這些亞型可促進個性化治療,並為未來臨床試驗提供參考。 相關文章 PubMed DOI

這項研究探討了AI語言模型ChatGPT在診斷和管理前肩不穩定性,以及預防小兒脊椎手術感染方面,與骨科醫生的可靠性比較。結果顯示,ChatGPT在14個陳述上與專家意見有合理相關性,但同意程度較低。特別是在紫外線使用的陳述上,ChatGPT的回應與專家不一致,可能因為新文獻影響。總體來看,ChatGPT在簡單問題上準確性尚可,但面對複雜問題時限制明顯。這項研究強調了評估AI在臨床環境中可靠性的重要性。 相關文章 PubMed DOI

MedicoVerse 是一個針對製藥產業法規文件進行摘要的解決方案,運用先進的機器學習技術。它採用多階段流程,包括詞嵌入、聚類和摘要生成。首先,利用 SapBERT 模型創建嵌入,接著用層次聚合聚類方法組織這些嵌入,最後使用 bart-large-cnn-samsum 模型對每個聚類進行摘要,並合併成綜合概述。與 T5、Google Pegasus 等模型比較後,MedicoVerse 在 ROUGE 分數、BERTScore 等評估標準上表現更佳,提供更具資訊性的摘要。 相關文章 PubMed DOI

這項研究探討加拿大醫生提供醫療協助死亡(MAiD)服務時所面臨的情感與道德影響。訪談22位早期實施者發現,雖然MAiD情感上具挑戰性,但也能帶來成就感。醫生們感受到支持病人自主權和減輕痛苦的正面影響,但同時也面臨專業責任與個人感受的緊張。病人的感激和選擇對他們的經驗有正面貢獻,而不確定性和衝突則是挑戰。總體來看,提供MAiD對醫生而言是一種有意義的實踐,強調理解這些影響的重要性,以支持未來的規範和相關利益者。 相關文章 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在回答美國醫學執照考試(USMLE)風格的醫學倫理問題的表現,並與醫學知識問題進行比較。研究使用54個問題進行測試,結果顯示: - 兩個版本在醫學倫理問題上的表現不如知識問題。 - GPT-4在倫理問題的準確率比知識問題下降18%,GPT-3.5則下降7%(差異不顯著)。 - GPT-4在倫理問題上比GPT-3.5好22%,知識問題上好33%。 - GPT-4的回答變異性較低,顯示其穩定性較佳。 這些結果強調了持續評估ChatGPT在醫學教育,特別是醫學倫理領域的必要性。 相關文章 PubMed DOI