LLM 相關三個月內文章 / 第 32 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 相關文章 PubMed DOI 推理

這篇論文全面探討微型語言模型(TLMs),這些模型是大型語言模型(LLMs)如GPT和BERT的緊湊替代品,專為資源有限的設備設計,如智慧型手機和物聯網系統。論文分析了TLMs的架構與方法,強調知識蒸餾、量化和剪枝等技術,提升效率與性能。還探討了TLMs在邊緣計算、工業自動化和醫療保健的應用,並面臨模型大小與準確性之間的權衡等挑戰。最後,建議未來研究方向,包括混合壓縮技術和針對特定硬體的上下文感知模型。 相關文章 PubMed DOI 推理

近年來,許多期待中的母親和哺乳中的母親開始透過社交媒體尋找哺乳資訊,並使用像ChatGPT、Gemini和Copilot等AI聊天機器人獲取指導。本研究比較這三款聊天機器人的表現,針對50個哺乳問題進行評估,結果顯示它們在信息質量、可靠性和可讀性上有顯著差異。Copilot在多項評分中表現最佳,而Gemini在某些評估中也表現不俗。雖然這些AI能提供可靠的答案,但其信息的複雜性可能影響理解,未來仍需進一步研究以提升其在醫療領域的應用。 相關文章 PubMed DOI 推理

這項研究評估了與唇顎裂相關的線上病人教育材料(PEMs)的可讀性,並檢視其是否符合建議的可讀性標準。透過系統性回顧,分析了九項研究,結果顯示這些材料的寫作水平普遍過高,超出建議範圍。可讀性指標顯示,這些材料對一般護理人員來說過於複雜,強調了改善可讀性和可及性的必要性。未來應著重於創建多樣化資源及進行可用性評估,以縮小全球在唇顎裂護理教育上的差距。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-4對衰弱症相關問題的回答,結果顯示其回應在相關性、準確性、清晰度和完整性上表現良好,獲得高分。然而,評分者之間的一致性較差,顯示在準確性和清晰度上存在變異。雖然ChatGPT-4在病人教育方面有潛力,但仍需專家監督以確保臨床有效性。未來研究應聚焦於整合病人特定數據,並比較不同人工智慧工具,以提升其在衰弱症管理中的應用。 相關文章 PubMed DOI 推理

急性前髓細胞白血病(APL)是一種急性髓性白血病,因染色體易位導致PML::RARA基因融合,若不治療會有高死亡風險。快速診斷對於APL至關重要,螢光原位雜交(FISH)和聚合酶鏈反應(PCR)是常用技術。近期人工智慧(AI)技術的進展,特別是機器學習(ML)和深度學習(DL),在APL的診斷和管理上顯示出良好潛力。文獻分析顯示,這些AI模型在靈敏度、特異性和準確性上表現優異,未來有望成為評估APL的重要工具。 相關文章 PubMed DOI 推理

本研究評估了ChatGPT在回答有關肺癌手術的常見問題上的能力。專家小組對其十六個回答進行評估,結果顯示所有回答都令人滿意且基於證據,僅有少數需要小幅澄清。使用的語言也易於患者理解。結論是,ChatGPT能有效提供肺癌手術相關資訊,並可作為術前患者教育的有用工具。 相關文章 PubMed DOI 推理

人工智慧(AI)正在改變醫療保健,但也帶來了倫理和法規挑戰。本研究旨在建立一個可信賴的AI框架,強調透明度和公平性,並提供可行策略以在臨床中實施。透過文獻回顧,發現目前AI治理存在缺口,提出了適應性監管框架和可量化的可信度指標。研究強調多方參與和全球合作的重要性,以確保AI創新能解決醫療需求。實現可信賴的AI需要技術進步、倫理保障和持續合作,促進負責任的創新並提升病人結果。 相關文章 PubMed DOI 推理

跌倒是醫院常見的不良事件,對患者及醫療系統影響深遠。本研究旨在利用大型語言模型(LLMs)自動編碼住院跌倒記錄,提取跌倒地點及受傷情況。研究分析了187條跌倒事件,使用GPT-4-turbo模型進行數據分類,結果顯示模型在地點和受傷檢測上表現優異,準確率均超過0.913及0.953。結論指出,GPT模型能有效從未優化文本中提取信息,顯示其在臨床風險管理中的潛力。 相關文章 PubMed DOI 推理

脊髓刺激(SCS)是一種有效的慢性疼痛治療方法,但患者常有疑問。本研究探討ChatGPT對SCS常見問題的回答在可靠性、準確性和可理解性方面的表現。研究選擇了十三個問題,並由專業醫師和非醫療人士評估。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,準確性也達到95%。總結來說,ChatGPT可作為患者教育SCS的輔助工具,尤其在一般性問題上,但對於技術性問題則可能較為困難。 相關文章 PubMed DOI 推理