LLM 相關三個月內文章 / 第 28 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

護理人員在電子健康紀錄上花費大量時間進行文書工作,可能影響病人護理並導致職業倦怠。為了解決這個問題,我們探索使用ChatGPT-4作為臨床決策支持工具,協助產科護理人員制定護理計畫。經比較分析後,發現AI生成的護理計畫在診斷、介入措施及結果上與護理團隊的計畫相當,且有效識別關鍵護理領域。未來將提升標準化術語的準確性,並整合至EHR系統,以改善病人結果並減輕護理人員的文書負擔。 相關文章 PubMed DOI

這項研究探討中國醫學生對大型語言模型(LLMs)的接受度,並以技術接受模型(TAM)為框架。調查結果顯示,學生普遍願意將LLMs融入學習中。主要發現指出,學生的態度顯著影響他們使用LLMs的意圖,並在感知有用性、易用性和感知風險之間起到中介作用。此外,感知風險和社會影響也直接影響行為意圖。研究強調TAM在理解醫學教育中LLMs接受度的重要性,並指出將LLMs整合進學生學習經驗的必要性。 相關文章 PubMed DOI

每年全球因吸煙導致超過800萬人過早死亡,顯示出戒煙干預的重要性。我們開發了QuitBot,一個互動式戒煙計畫,提供個性化的支持和建議,幫助用戶戒煙。與傳統的簡訊計畫不同,QuitBot能進行互動對話,讓用戶獲得量身定制的指導。我們進行了一項隨機臨床試驗,包含1,520名參與者,旨在評估QuitBot的戒煙效果及其影響因素。該試驗已在ClinicalTrials.gov註冊。 相關文章 PubMed DOI

這項研究比較了ChatGPT-3.5、ChatGPT-4和Google Gemini在正顎手術問題上的回應可靠性,使用定量分析方法。研究團隊設計了64個問題的問卷,並由兩位專家評估這三個AI的回應。結果顯示,雖然ChatGPT-3.5的可靠性得分最高,但三者表現相似。特別是Google Gemini在提供醫生建議和圖形元素方面表現優異,這在其他兩者中並未出現。研究建議未來需進一步評估AI在醫療領域的能力。 相關文章 PubMed DOI

這項研究比較了AI平台ChatGPT-4和Bard Gemini Advanced所生成的知情同意文件,與一名一年級口腔外科住院醫師撰寫的文件。經18位專家評估,結果顯示ChatGPT-4在準確性、完整性和可讀性上均優於Bard和人類撰寫的文件。具體來說,ChatGPT-4的得分在各項目中均為4,而Bard為3,人類同意書也為4。研究強調AI在知情同意過程中的潛力,但也指出需持續評估和整合患者反饋,以確保其在臨床上的有效性。 相關文章 PubMed DOI

這篇論文介紹了OphGLM,一個創新的眼科助手,結合大型語言模型(LLMs)與視覺理解,提升眼科疾病的早期篩檢和診斷。傳統診斷方法在互動性上有其限制,因此需要更互動的解決方案。OphGLM整合了圖像和文本編碼器,並創建了新的中文數據集FundusTuning-CN,包含眼底圖像的指導性和對話性數據。OphGLM在眼底疾病分類上表現優於現有模型,並能提升眼科臨床應用。相關數據集、代碼和模型將公開,供後續研究使用。 相關文章 PubMed DOI

這項研究探討了一種新方法,利用深度學習預測與非編碼單核苷酸多態性(SNPs)相關的分子過程,特別是在全基因組關聯研究中。傳統方法需大量標記DNA序列,但因人類基因組有限,數據可用性受限。為解決此問題,作者提出了一種半監督學習(SSL)方法,利用來自多種哺乳動物基因組的未標記DNA序列,並結合Noisy Student算法來增強預訓練的數據信心。結果顯示,這種方法能顯著提升預測性能,且小型模型的表現可與大型模型相媲美。 相關文章 PubMed DOI

最近,人工智慧的進展讓區分人類和AI生成的文本變得困難,因此對檢測工具的需求增加。本研究針對高等教育的研究生入學過程,專注於識別AI生成的推薦信和意向書,以確保申請者的真實能力被公平評估。研究分析了福坦大學的3,755封推薦信和1,973份意向書,並利用GPT-3.5 Turbo API生成AI版本。結果顯示,透過足夠的訓練數據,可以開發出有效的檢測模型,並已在GitHub上公開代碼供測試。 相關文章 PubMed DOI

這篇評論探討了數據在新生兒重症監護病房(NICU)復甦中的重要性,並指出資訊工具和人工智慧(AI)在提升精準醫療的潛力。儘管已有進展,但數據的有效運用仍面臨捕捉、整合及AI工具採用的挑戰。改善介面設計對準確數據收集至關重要,這些數據可透過分析和AI轉化為實用見解。此外,評論提到數據隱私、偏見、責任及倫理框架等重要考量,並呼籲進一步研究及對臨床醫師進行相關教育。 相關文章 PubMed DOI

這項研究探討了緊急情境中的分診決策,對比醫療專業人員與人工智慧(AI)模型的表現。研究發現,醫療人員的準確率(30.7%)高於AI模型(25.5%),顯示人類專業知識在分診中仍然更可靠。研究涉及50個虛擬病人情境,參與者使用土耳其衛生部的顏色編碼系統進行分類。雖然AI能快速分析數據,但在此情境下表現不如人類。作者建議結合AI與人類專業知識,以提升分診系統的效率。 相關文章 PubMed DOI