LLM 相關三個月內文章 / 第 26 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了ChatGPT-4在腎臟科專業意見上的一致性,並將其回應與平台X的社群投票結果進行比較。經過兩輪測試,涵蓋271個問題,結果顯示第一輪一致性為60.2%(κ = 0.42),第二輪稍微提升至63.1%(κ = 0.46)。內部一致性高達90.4%(κ = 0.86),在穩態調節、腎結石和藥理學等領域表現較佳(κ = 0.53)。總體來看,ChatGPT-4在腎臟科的主流意見重現上有適度能力,但表現因主題而異,顯示出AI在醫療決策中的潛力與限制。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4對原發性甲狀旁腺功能亢進症問題的回答準確性與品質。兩位內分泌科醫生獨立評分,結果顯示診斷的準確性和完整性都很高,治療建議的表現也不錯。整體來看,80%的回答屬於高品質,20%為中等品質。這顯示ChatGPT在醫療領域處理相關問題上具潛力,但使用時仍需注意其限制與風險。 相關文章 PubMed DOI

數位時代讓全球溝通變得更方便,但也帶來假新聞的問題,這些虛假資訊扭曲真相,影響社會和諧及公共輿論。因此,假新聞的檢測成為重要研究領域。本文介紹了一個新框架——生成雙向編碼器表示法(GBERT),結合了GPT和BERT的優勢,專門用於假新聞分類。經過微調後,該框架在兩個數據集上表現出色,準確率達95.30%,顯示出其在對抗錯誤資訊方面的潛力。 相關文章 PubMed DOI

這項研究探討了 COVID-19 疫情期間攻擊性語言的增加,並利用機器學習技術來解決這個問題。研究建立了一個檢測和轉化中文仇恨言論的框架,並編制了包含 30 個疫情相關術語的數據集。開發的兩層檢測模型準確率分別為 94.42% 和 81.48%。結合生成式 AI 和 LDA 主題模型,提升了改寫效率,並有效減少敵意,保持核心意義。這種方法提供建設性的改寫建議,促進積極公共討論,幫助遏制仇恨言論。 相關文章 PubMed DOI

本研究探討了醫療提供者在病人交接實務上的教育計畫及其有效性,發現他們的正式教育相當有限,主要依賴非正式訓練。雖然許多醫療人員對自己的交接技能有信心,但在跨專業合作與信心上卻不足,導致對交接程序的理解不一,且對所交換資訊的信任度低。這些結果顯示,醫療教育中需要標準化交接訓練,以提升病人安全並促進更好的跨專業合作。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 相關文章 PubMed DOI

這項研究探討大腦如何處理動態面部表情,透過比較靜態圖像、視頻和計算機生成的面部動畫。研究目的是識別自然面部動態的神經相關性。主要發現包括: 1. **N400和LPP反應**:動態變形的N400振幅較高,顯示期望違反,而LPP振幅較低,暗示社交相關性降低;視頻則引發更高的LPP和額葉δ波活動。 2. **參與者感知**:參與者在評估變形表情的真實性時,發現快樂表情比恐懼表情更容易評估。 3. **神經機制**:額葉區域的δ波振盪可能在感知自然面部運動中扮演重要角色。 這項研究強調了面部感知的神經機制對微妙變化的敏感性,對未來的神經影像研究具有重要意義。 相關文章 PubMed DOI

生成式人工智慧(AI),特別是大型語言模型(LLMs),在重症腎臟科的應用正逐漸顯現其潛力。這些技術能提升病人護理、簡化流程,並改善診斷準確性及臨床推理。未來,隨著自動化的發展,生成式AI可能會優化病人結果,但實施時需謹慎考量倫理、數據隱私及人類監督等問題。重點包括LLMs在診斷、病人教育及電子健康紀錄整合的應用,以及解決倫理問題的重要性。總之,雖然潛力巨大,但挑戰與限制需仔細評估。 相關文章 PubMed DOI

這項研究探討了跨感官對應,特別是ChatGPT如何捕捉不同感官特徵的聯結。研究比較了ChatGPT-3.5和ChatGPT-4o在英語、日語和西班牙語中的表現。結果顯示,圓形與甜味和鮮味有強烈關聯,而角形則與苦味、鹹味和酸味相關。ChatGPT-4o的聯結強度優於3.5,且英西語的結果較日語一致。第二組研究發現,ChatGPT-4o在顏色與味道的對應上重現了人類模式,但表現更為明顯且缺乏細緻度。整體而言,這項研究增進了對AI如何反映人類感知的理解。 相關文章 PubMed DOI

這項研究探討了生成式AI聊天機器人的能力偏見,特別是OpenAI的ChatGPT和Google的Gemini。研究人員生成了300個描述,涵蓋一般人、殘障人士及運動員,並進行語言學分析。結果顯示,這兩個AI模型顯著低估殘障人士,將他們描繪成擁有較少優勢特質,顯示出可量化的能力偏見。這強調了在醫療環境中使用這些AI的倫理影響,呼籲開發者解決這些偏見,促進更公平的AI技術。 相關文章 PubMed DOI