LLM 相關三個月內文章 / 第 89 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了邊緣社群成員,特別是分享種族歧視經歷的人,如何在社交媒體上面對壓制。結果顯示,無論是演算法還是人類使用者,都不成比例地刪除這些帖子,顯示出系統性問題。研究指出,目睹這種壓制會對黑人美國人的社群感和歸屬感造成負面影響。為了對抗這種沉默,研究提出了一個介入措施,旨在減少不同政治觀點之間的壓制行為,促進網路空間的公平與包容。 相關文章 PubMed DOI

最近大型語言模型和提示工程的進展,讓自訂聊天機器人變得更容易,不再需要程式設計技能。不過,進行大規模的提示評估仍然很具挑戰性。我們的研究確定了五個關鍵挑戰,並提出了一個以特徵為導向的提示評估工作流程,特別針對文本摘要,強調根據摘要特徵來評估提示,而非僅依賴傳統指標。為了支持這個流程,我們推出了Awesum,一個視覺分析系統,幫助用戶識別最佳提示改進。我們的測試顯示,Awesum能有效幫助非技術用戶進行系統性評估,並可應用於其他自然語言生成任務。未來建議專注於大型語言模型的特徵導向評估。 相關文章 PubMed DOI

這篇論文介紹了Cap4Video++,一個新框架,透過整合用戶生成的元數據(特別是視頻字幕)來提升視頻理解。框架分為三個階段: 1. **輸入階段**:利用語義對樣本選擇從字幕中挑選有用樣本,支援對比學習。 2. **中間階段**:進行視頻-字幕跨模態互動和自適應字幕選擇,增強視頻與字幕的表徵。 3. **輸出階段**:設有互補的字幕-文本匹配分支,精煉相似度計算,改善視頻表徵。 實驗結果顯示,Cap4Video++在九個基準測試中表現優於現有模型,證明自動生成字幕能有效增強視頻理解。 相關文章 PubMed DOI

這項研究評估了ChatGPT在提供九種非傳染性疾病和傳染病的治療建議能力,使用模擬病人進行測試。結果顯示,ChatGPT的正確診斷率為74%,開立適當藥物的準確率為82%。不過,85%的案例中卻開立了不必要或有害的藥物,這引發了重大關注。研究還發現,ChatGPT在管理非傳染性疾病方面表現優於傳染病。這些結果提醒我們,在將人工智慧應用於醫療時,必須謹慎以確保病人護理的質量與安全。 相關文章 PubMed DOI

這項研究比較了大型語言模型GPT-4與內分泌科醫生在糖尿病治療中對metformin及替代療法的選擇。研究發現,GPT-4在簡單提示下僅選擇12%的案例使用metformin,而醫生則為31%。當提示鼓勵使用metformin時,GPT-4的選擇提高至25%。在腎功能受損或有腸胃不適的患者中,GPT-4幾乎不選擇metformin(2.9%),而醫生則有21%的回應。研究結論指出,GPT-4的回應雖合理,但與醫生的選擇存在顯著差異,使用時需謹慎。 相關文章 PubMed DOI

這篇文章探討了人工智慧(AI)技術,特別是像ChatGPT這類大型語言模型在醫療領域的應用。文章指出,這些工具能幫助醫療人員簡化病人教育、溝通、醫療紀錄摘要及研究等工作。不過,對於這些工具是否適合臨床使用,以及醫療工作者的接受度,仍有一些疑慮。文章旨在讓護理人員了解可用的AI工具,幫助他們評估這些技術在臨床實踐中的必要性與影響,確保能以道德且有效的方式提升病人護理品質。 相關文章 PubMed DOI

這項研究評估大型語言模型(LLMs)在解釋乳腺影像報告及提供臨床建議的表現,分為兩個步驟: 1. **文本評估**:比較十個LLMs與放射科醫師在100道BI-RADS選擇題上的準確率。Claude 3.5 Sonnet表現最佳(90%),超過一般放射科醫師(78%)和乳腺放射科醫師(82%)。 2. **視覺評估**:測試五個多模態LLMs在100張乳腺超音波影像上的表現,Claude 3.5 Sonnet以59%準確率領先。 研究顯示,雖然LLMs在文本評估中表現良好,但視覺診斷能力有限,需在放射科醫師監督下使用,以避免誤診。 相關文章 PubMed DOI

這篇評論探討了人工智慧(AI)在重症護理腎臟科的進展與應用。AI 演算法能提升早期檢測、風險預測及個性化治療,特別是在急性腎損傷(AKI)管理上。機器學習模型可在血清肌酸酐變化前預測 AKI,而大型語言模型則能自動生成臨床筆記和患者教育材料。儘管如此,為了發揮 AI 的潛力,仍需解決數據質量和倫理等挑戰。成功整合 AI 需要腎臟科醫生、重症醫師與 AI 專家的合作與持續教育。 相關文章 PubMed DOI

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 相關文章 PubMed DOI

這項系統性回顧評估了ChatGPT(特別是GPT-3.5、4和4V)在日本醫療和健康執照考試中的有效性。研究分析了2022年1月到2024年4月間的22篇文章,結果顯示GPT-4雖能通過文字考試,但表現不如實際考生。此外,最新的GPT-4V在圖像識別上表現不佳,對視覺問題的回應也不夠充分。這些結果顯示,為了提升評估結果,仍需在精確度上進行改進。 相關文章 PubMed DOI