LLM 相關三個月內文章 / 第 39 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了一個針對手外科知識調整的ChatGPT客製化多模態大型語言模型。結果顯示,這個模型在回答文本選擇題時準確率達89.9%,優於標準的GPT-4(76.5%)。人類考生的表現也相似,正確率為87.3%。在圖像問題方面,客製化模型的準確率為75.3%,但無圖像時降至69.9%。人類考生在圖像問題上表現稍佳(87.2%)。總體來看,這顯示客製化模型在手外科文本問題上有顯著進步,但圖像解釋仍需加強,建議可開發專門的GPT模型以提升教育與臨床應用。 相關文章 PubMed DOI

這項研究探討了OwlMentor,一個以人工智慧為基礎的學習平台,幫助大學生理解科學文本。OwlMentor透過參與式方法開發,並在課程中使用,經過兩個學期的評估。研究發現,感知的易用性和有用性與實際使用之間的關係相當複雜,顯示需要更動態的接受模型。雖然未找到OwlMentor使用與學習改善的直接聯繫,但使用者的學習成效明顯高於非使用者,且自我效能與平台的使用意圖有顯著關聯,強調了AI工具與學生需求對齊的重要性。 相關文章 PubMed DOI

大型語言模型(LLMs)如ChatGPT(GPT-4)、Gemini和Bing在醫學教育上展現潛力,特別是在臨床管理和住院醫師考試準備方面。一項針對耳鼻喉科住院醫師的研究顯示,GPT-4的準確率為54.75%,優於Gemini(40.50%)和Bing(37.00%)。高年級住院醫師的準確率達75.5%,明顯高於LLMs。雖然LLMs能與準高年級住院醫師相當,但仍未達到更有經驗的住院醫師的準確性,顯示在醫學教育中有潛在應用價值。 相關文章 PubMed DOI

當患者被診斷為泌尿系統癌症時,常會尋求線上資源,但許多醫生撰寫的資料過於複雜,超過了建議的閱讀水平,導致患者轉向不受監管的來源,如AI聊天機器人。本研究比較了ChatGPT、Epic和泌尿護理基金會針對前列腺癌、膀胱癌和腎臟癌的教育材料。結果顯示,Epic的材料符合閱讀水平,而UCF和ChatGPT則不符合。質量方面,ChatGPT表現優秀,建議AI可提升患者教育的可及性與實用性,幫助患者共同決策。 相關文章 PubMed DOI

聊天機器人在醫療領域的應用越來越普遍,尤其是大型語言模型的發展。不過,由於數據隱私、診斷風險和法規遵循的顧慮,這些應用仍受限制。日內瓦大學醫院和日內瓦大學開發的confIAnce聊天機器人,提供初級護理和慢性疾病的簡化資訊。本文探討醫療聊天機器人的認證及法規,並以confIAnce為案例,分析其如何依瑞士法規和歐盟人工智慧法案被認定為醫療器材。若能明確定義角色並遵循法規,聊天機器人有潛力為病人和醫療專業人員帶來益處。 相關文章 PubMed DOI

這項研究探討了ChatGPT在耳硬化症相關問題上的回答準確性與重現性,使用了96個問題,並由兩位耳鼻喉科醫生評估。結果顯示,ChatGPT的整體準確率為64.60%,重現率達89.60%。不同類別的表現有所差異,基本知識和診斷管理的準確率較高,而醫療與外科治療的表現較差。儘管如此,ChatGPT在醫療監督下仍可能成為耳硬化症患者的有用資訊來源。 相關文章 PubMed DOI

這份調查探討基礎模型(FMs)在生物資訊學中的影響,特別是如何克服有限標註數據和數據噪音的挑戰。文章總結了FMs的演變、當前研究狀況及方法,並強調它們在序列分析、結構預測和功能註釋等生物學問題上的應用,與傳統方法進行比較。此外,還討論了FMs面臨的挑戰,如數據噪音、可解釋性和偏見,並提供對性能限制的見解。最後,文章展望了FMs在生物研究中的未來發展方向。 相關文章 PubMed DOI

AI技術,特別是像ChatGPT這樣的大型語言模型,近來在醫療領域引發了許多研究,評估其回答病人問題的有效性。雖然研究顯示這些模型能提供可靠資訊,但也揭示了其限制。這引發了對「閃亮物體」症候群的擔憂,讓人們忽略了AI在臨床實踐中的實際應用。許多研究重複確認AI的能力,而非探索能改善病人照護的創新案例,這可能導致進展停滯。專家應引導研究朝向能真正改變病人照護的應用,而非僅僅追求新奇。 相關文章 PubMed DOI

醫療教育者在整合快速發展的生成式人工智慧(GenAI)工具進課程時面臨挑戰。為了解決這個問題,PICRAT模型提供了一個標準化的框架,幫助評估和整合這些工具。NotebookLM是一個多功能的GenAI工具,能自動生成引人入勝的播客,這些播客可從教育或研究內容中產生。我們透過NotebookLM的自動播客功能,展示醫療專業教育如何運用PICRAT模型來評估GenAI工具,確保有效的技術整合,提升學習成果。 相關文章 PubMed DOI

這項研究評估了GPT-4.0在2021至2023年日本醫學執照考試的表現,重點在於準確性和醫學知識解析能力。問題依難度和類型分類,包括一般和臨床部分,以及單選和多選題。GPT-4.0的正確回答率達80.4%,顯示出合格的表現,但不同問題的準確性有顯著差異。研究結果顯示,雖然GPT-4.0在醫學教育和研究中有價值,但仍需大量醫學數據來提升準確性,整合ChatGPT進醫學領域可能帶來新機會。 相關文章 PubMed DOI