LLM 相關三個月內文章 / 第 17 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文介紹了一個創新的低成本模擬駕駛評估系統,搭載語音助手,利用生成式人工智慧進行即時互動。這種模擬器提供比傳統實地評估更安全且可自訂的選擇,解決了高成本的問題。系統旨在提升駕駛者的情境意識,並促進正向情緒,幫助識別需要進一步評估的駕駛者。初步結果顯示,與語音助手互動的參與者在駕駛表現和情緒狀態上都有所改善。 相關文章 PubMed DOI

深度學習光學字符識別(OCR)在提取圖像文本方面發展迅速,但針對古代阿拉伯手稿的數據集卻相對不足,這對研究者來說是一大挑戰。為了解決這個問題,我們創建了一個包含來自麥地那伊斯蘭大學中央圖書館的八本古書、四十頁圖像及其專家轉錄文本的數據集。這些手稿展現了阿拉伯文學的多樣性,對於阿拉伯OCR的研究和模型開發至關重要。我們希望透過公開這個數據集,能夠提升古代手稿的文本識別準確性,並支持相關研究。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在醫療領域的倫理問題,特別是臨床醫師的看法。研究分析了3,049則來自醫師討論區的帖子,找出14個關鍵主題,分為四大類:LLMs的倫理問題、算法治理、對健康公平的影響,以及使用者與LLM的互動。分析指出了決策透明度、公平性、隱私等複雜議題。研究呼籲持續進行倫理評估,並建議針對LLMs的使用制定專門的治理,以提升臨床結果的倫理性。 相關文章 PubMed DOI

這項研究探討了微調開源大型語言模型(LLMs)在醫學證據總結方面的潛力,與專有模型相比,開源模型雖然表現較弱,但提供了更高的透明度和自訂性。研究人員使用MedReview基準數據集對三個流行的開源LLMs進行微調,結果顯示微調後的LongT5在零樣本設定中接近GPT-3.5的表現,且一些小型微調模型甚至超越了大型零樣本模型。這些改進在人工評估和模擬GPT-4的評估中均有明顯體現。 相關文章 PubMed DOI

EnzChemRED是一個新資料集,旨在透過自然語言處理技術,提升從科學文獻中提取酶相關資訊的能力。該資料集包含1,210篇專家策劃的PubMed摘要,並標註了酶及其化學反應的識別碼。研究顯示,使用EnzChemRED微調的語言模型在識別蛋白質和化學物質方面表現優異,F1分數達86.30%。此外,這些模型在提取化學轉換和相關酶的能力也相當強大,為酶功能的策劃提供了有力支持。 相關文章 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在協助醫生對放射治療保險拒絕上訴的表現。測試的模型包括GPT-3.5、GPT-4及其具網路搜尋能力的版本。研究使用20個模擬病歷進行評估,結果顯示GPT-3.5、GPT-4和GPT-4web能產生清晰且具臨床相關性的上訴信,對加速上訴過程有幫助。相對而言,經微調的GPT-3.5ft表現較差,且所有模型在引用文獻時均有困難。整體而言,LLMs可減輕醫生的文書負擔,但小型數據集微調可能影響性能。 相關文章 PubMed DOI

這項研究探討了邊緣社群成員,特別是分享種族歧視經歷的人,如何在社交媒體上面對壓制。結果顯示,無論是演算法還是人類使用者,都不成比例地刪除這些帖子,顯示出系統性問題。研究指出,目睹這種壓制會對黑人美國人的社群感和歸屬感造成負面影響。為了對抗這種沉默,研究提出了一個介入措施,旨在減少不同政治觀點之間的壓制行為,促進網路空間的公平與包容。 相關文章 PubMed DOI

最近大型語言模型和提示工程的進展,讓自訂聊天機器人變得更容易,不再需要程式設計技能。不過,進行大規模的提示評估仍然很具挑戰性。我們的研究確定了五個關鍵挑戰,並提出了一個以特徵為導向的提示評估工作流程,特別針對文本摘要,強調根據摘要特徵來評估提示,而非僅依賴傳統指標。為了支持這個流程,我們推出了Awesum,一個視覺分析系統,幫助用戶識別最佳提示改進。我們的測試顯示,Awesum能有效幫助非技術用戶進行系統性評估,並可應用於其他自然語言生成任務。未來建議專注於大型語言模型的特徵導向評估。 相關文章 PubMed DOI

這篇論文介紹了Cap4Video++,一個新框架,透過整合用戶生成的元數據(特別是視頻字幕)來提升視頻理解。框架分為三個階段: 1. **輸入階段**:利用語義對樣本選擇從字幕中挑選有用樣本,支援對比學習。 2. **中間階段**:進行視頻-字幕跨模態互動和自適應字幕選擇,增強視頻與字幕的表徵。 3. **輸出階段**:設有互補的字幕-文本匹配分支,精煉相似度計算,改善視頻表徵。 實驗結果顯示,Cap4Video++在九個基準測試中表現優於現有模型,證明自動生成字幕能有效增強視頻理解。 相關文章 PubMed DOI

這項研究評估了ChatGPT在提供九種非傳染性疾病和傳染病的治療建議能力,使用模擬病人進行測試。結果顯示,ChatGPT的正確診斷率為74%,開立適當藥物的準確率為82%。不過,85%的案例中卻開立了不必要或有害的藥物,這引發了重大關注。研究還發現,ChatGPT在管理非傳染性疾病方面表現優於傳染病。這些結果提醒我們,在將人工智慧應用於醫療時,必須謹慎以確保病人護理的質量與安全。 相關文章 PubMed DOI