一週內新進文章 / 共 220 篇 / 第 6 頁
點選可選分類: LLM 腎臟科 一般醫學 SGLT2i GLP1

這項研究調查了2020至2021年間,接受美國商業基因檢測的高風險APOL1基因型患者中,孟德爾腎臟疾病的流行率。分析了15,181名個體,發現3,119名(20.5%)被診斷為孟德爾腎臟疾病,其中1,035名(6.8%)擁有高風險APOL1基因型。高風險患者的孟德爾腎臟疾病流行率(9.6%)低於擁有單一風險等位基因(13.6%)及G0/G0基因型患者(16.6%)。此外,擁有孟德爾腎臟疾病且有非洲血統的患者中,某些基因的致病變異流行率存在差異,顯示其他遺傳因素可能影響腎臟疾病風險。總體來看,約10%的高風險APOL1基因型患者顯示出孟德爾腎臟疾病的證據。 相關文章 PubMed DOI

最近研究指出,IFT140基因的單等位基因缺失變異可能是自體顯性多囊腎病(ADPKD)的潛在原因。雖然大多數有家族病史的患者在PKD1或PKD2基因中有變異,但約40%沒有家族病史的患者卻未在這兩個基因中找到致病變異。在一項157名成年患者的研究中,4.5%在IFT140中有變異,且IFT140變異的發生率高於有家族病史的患者。這些患者的腎臟體積較小,腎小球過濾率較高,顯示IFT140變異可能導致輕微的表型,進而影響家族病史的評估。 相關文章 PubMed DOI

這項研究探討SARS-CoV-2疫苗對擁有高風險基因型APOL1的個體腎臟健康的影響,特別是塌陷性腎小管病。研究篩選了1,507名成年人,最終招募105名參與者,並分析他們的疫苗接種和腎功能數據。結果顯示,無論基因型如何,接種疫苗前後的血清肌酸酐和尿蛋白水準都沒有顯著變化。大多數參與者攜帶常見的APOL1單倍型,且未見腎臟問題惡化。研究建議進一步進行大規模驗證,以確認疫苗對這群體的腎臟安全性。 相關文章 PubMed DOI

JUSTICE 試驗是一項臨床研究,探討 JAK1/2 抑制劑 baricitinib 對特定 APOL1 基因變異患者的影響,特別是針對局灶性節段性腎小管硬化症 (FSGS) 和高血壓引起的末期腎病 (HTN-ESKD)。研究將招募 75 名年齡介於 18 到 70 歲的非裔美國患者,隨機分為接受 baricitinib 或安慰劑的兩組,主要目標是評估六個月後尿液白蛋白與肌酸酐比率的變化,並監測安全性。此研究可能為相關腎病患者提供新的治療選擇。 相關文章 PubMed DOI

這項研究指出,網路醫療資訊在骨科領域的使用越來越普遍,但也面臨品質挑戰。研究評估了25個網站,並針對10個網站使用髖部資訊評分系統(HISS)進行分析。最初的平均分數為9.5,顯示品質不佳。經過ChatGPT的建議後,分數提升至21.5,顯示出優秀的品質。結果顯示,ChatGPT能顯著改善線上病人資訊的品質,成為骨科醫生創建教育材料的有力工具,雖然無法取代專業知識,但能提升醫療資訊的可及性與品質。 相關文章 PubMed DOI

Seqwash是一種創新的演算法,利用大型語言模型來協調免疫細胞的測序資料。它透過創建統一的序列表示,有效過濾不相關信息,並突顯重要模式。評估結果顯示,Seqwash能標準化免疫細胞資料,提升特徵質量,並在各種下游任務中(無論是監督式或非監督式)改善與測序數據相關的表現。 相關文章 PubMed DOI

這篇文章探討了醫療腫瘤學中,人工智慧(AI)在自動文本分析的最新進展,特別是自然語言處理(NLP)的重要性。大型語言模型在解答醫療問題上表現突出,並介紹了如預後評估、治療建議等新應用。作者呼籲啟動全球臨床評估,以驗證AI決策支持系統的有效性,並解決潛在偏見。他們強調在推進病人護理時,必須保持科學的嚴謹性。 相關文章 PubMed DOI

這項研究評估了ChatGPT 4.0在急診部分診的診斷準確性和效率。透過系統性回顧和統合分析,分析了14項研究,涵蓋1,412名患者。結果顯示,ChatGPT 4.0的準確率為0.86,明顯高於3.5版本的0.63。雖然4.0版本顯示出提升急診分診準確性的潛力,但仍存在顯著的變異性和潛在偏差,需進一步研究和改進。 相關文章 PubMed DOI

這段文字探討了從文本中識別和提取關鍵資訊的重要性,特別是在食品領域,對營養師和醫生很有幫助。文中提到命名實體識別(NER)和命名實體連結(NEL)的角色。大型語言模型(如ChatGPT)為這些任務提供了新機會。作者評估了ChatGPT-3.5和ChatGPT-4在食品數據的NER和NEL表現,並比較它們在生物醫學領域的能力。結果顯示,ChatGPT在NER上表現不錯,但在實體連結的有效性上則較低。作者提醒,雖然ChatGPT有潛力,但在食品和生物醫學的關鍵決策上不應過度依賴。 相關文章 PubMed DOI

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 相關文章 PubMed DOI