LLM 相關三個月內文章 / 第 42 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇評論探討了生成式人工智慧,特別是Google Gemini(之前叫Bard),如何幫助非母語的研究者提升英語演講技巧。文中提供了使用Google Gemini的語音轉文字和文字轉語音功能的步驟。研究顯示,Google Gemini在撰寫演示文稿、練習發音和驗證內容方面都很有效,顯示出人工智慧在科學交流中的新應用。不過,使用者需對這項技術的實驗性質保持謹慎。對全球科學社群來說,這類工具的採用正是時機成熟且具優勢的選擇。 相關文章 PubMed DOI

這篇論文提出一個系統,透過自然語言對話提升人機互動,讓機器人能夠從經驗中學習。系統利用大型語言模型(LLMs)協調機器人行為,生成Python程式碼來控制動作和感知,這些程式碼根據人類指令和環境反饋生成。當LLM誤解指令時,會調用另一個專注於改善程式碼的LLM來學習錯誤。改進的互動會儲存於機器人記憶中,未來能更好處理類似請求。該系統已整合進人形機器人ARMAR-6,並透過模擬和實測評估其有效性,顯示機器人能夠逐步學習並應用知識。 相關文章 PubMed DOI

LLMSeg的發展在放射治療,特別是乳癌治療中,具有重要意義。它利用大型語言模型整合臨床文本與影像數據,成功解決靶區輪廓描繪的挑戰,超越了傳統的器官分割任務。在外部環境和數據稀缺的情況下,LLMSeg的驗證顯示其實用性,表現優於傳統的單模態人工智慧模型,展現出更強的泛化能力和數據效率,成為改善放射腫瘤學實務的有力工具。 相關文章 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)——ChatGPT-4、Copilot 和 Gemini——在回答圓錐角膜(KCN)相關問題的表現。研究者提出五十個問題,並由三位眼科醫生評分。結果顯示,ChatGPT-4 的表現最佳,100% 的回答得分在 3 分以上,且有 74% 的回答獲得「強烈同意」。相比之下,Copilot 和 Gemini 的同意率僅為 34% 和 42%。雖然 ChatGPT-4 的可靠性較高,但可讀性較低,整體仍被認為是解答 KCN 問題的最佳選擇。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在精神科訪談中的應用,特別針對北韓脫北者的心理健康挑戰。研究目標是確認LLMs能否有效識別精神病症狀並總結壓力源。主要任務包括提取壓力源、識別症狀及總結訪談內容。結果顯示,使用GPT-4 Turbo模型後,73個記錄片段準確關聯精神病症狀,經微調後性能提升,平均準確率達0.82。LLMs生成的摘要在連貫性和相關性上得分高,顯示其在心理健康領域的潛力。 相關文章 PubMed DOI

這項研究透過電話訪談,調查印度醫學生對大型語言模型(LLMs)在醫學教育中的看法。25名學生的回應經過分析後,整理出三個主要主題:使用情境、增強學習和LLMs的限制。學生們表示,LLMs幫助他們澄清複雜主題、尋找客製化答案、解決選擇題、創建簡化筆記及簡化作業。他們欣賞這些工具的易用性和省時優勢,但也擔心不準確性、可靠性和隱私問題。學生強調需要培訓,以有效整合LLMs進醫學教育。總體而言,LLMs有潛力提升醫學教育,但需解決挑戰以發揮其優勢。 相關文章 PubMed DOI

假新聞檢測在資訊時代愈加重要,但現有方法多依賴小型語言模型,對專業新聞表現不佳。為了解決這個問題,我們提出FND-LLM框架,結合小型與大型語言模型,強化多模態假新聞檢測。框架包含文本特徵、視覺語義、視覺篡改、共同注意網絡、跨模態特徵及大型語言模型分支。實驗結果顯示,FND-LLM在Weibo、Gossipcop和Politifact數據集上的準確率分別提升0.7%、6.8%和1.3%。 相關文章 PubMed DOI

這篇評論旨在讓醫師了解大型語言模型(LLMs)和生成式人工智慧(AI)在眼科的最新進展。隨著技術不斷進步,這些工具在改善醫療服務上展現出巨大潛力。文章強調了LLMs在眼科的應用,包括問答任務及其他創新用途,並概述了常用技術,還討論了與眼科相關的生成式AI新趨勢。希望能鼓勵醫師進一步探索和運用這些技術,提升病人照護品質。 相關文章 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在牙科學生對牙周手術知識的有效性,共有134名學生參加。結果顯示,ChatGPT-3.5的平均回應時間為3.63秒,準確度得分21.51分;而ChatGPT-4的回應時間較長,為12.49秒,得分20分。雖然兩者的準確性未達學生水平,但ChatGPT-4的開放式回答與教師評估一致,顯示其在學生學習及臨床評估中的潛力。 相關文章 PubMed DOI

這項研究分析了一個為心理健康支持設計的大型語言模型(LLM)是否存在偏見,透過模擬醫生與病人的對話進行。研究使用數位標準化病人(DSPs),保持中立並了解其社會人口特徵。結果顯示,449次對話中LLM的回應並無顯著偏見,且能理解DSPs的關切,改善對話語氣。總體來說,研究未發現LLM有實質偏見,對於心理健康支持的LLM偏見理解有所貢獻。 相關文章 PubMed DOI