LLM 相關三個月內文章 / 第 81 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文探討人工智慧(AI)在醫學研究中的重要性,特別是在撰寫研究論文方面。AI能協助數據分析、提供寫作支援,並提升出版效率。研究依據PRISMA指導原則,搜尋了多個資料庫,找到截至2023年10月的相關文獻。AI工具如ChatGPT能生成草稿,但也引發內容所有權和偏見的倫理問題。論文強調研究人員、出版商與AI開發者需合作建立倫理標準,並提到AI在婦產科和藥物研究中的應用。儘管AI帶來優勢,持續的研究與倫理指導仍然重要,以確保負責任地使用AI。 相關文章 PubMed DOI 推理

在學術界,生成式人工智慧的應用改變了內容創作,並引發著作權與原創性的討論。雖然AI工具如GPT-3提升了效率,但也對學術誠信造成挑戰。本文探討這些挑戰,並提倡建立新的道德使用框架。我們透過專案式學習(PBL)提升179名學生的參與度與表現,結果顯示PBL學生的成績與原創性均優於傳統學習者。Turnitin有效識別AI生成內容,未來應持續完善這些策略,以維護學術誠信。 相關文章 PubMed DOI 推理

這篇論文是醫療領域模擬專家的實用指南,教你如何設計大型語言模型(LLMs)如ChatGPT、Gemini和Claude的提示。透過文獻回顧和測試,提供最佳實踐,涵蓋臨床情境、OSCE站點、角色劇本及回饋會議等使用案例。還探討了整合LLMs的挑戰,如偏見、隱私和透明度等問題,並考量醫療教育的倫理影響。總之,這篇論文旨在幫助模擬專家有效利用生成式AI,提升學習的真實感和教育效果。 相關文章 PubMed DOI 推理

本研究探討ChatGPT-4在皮膚病變識別的有效性,特別是黑色素瘤的檢測。結果顯示,GPT-4在黑色素瘤的準確率為68.5%,敏感性52.5%,特異性72.5%,與臨床診斷有顯著差異。對於可疑病變的檢測表現較佳,但仍未能與臨床診斷完全匹配。研究指出,需改進算法並擴大數據集,以提升準確性和普遍性。限制因素包括樣本量小及數據來源的特定性。 相關文章 PubMed DOI 推理

這項研究探討了使用ChatGPT-4o作為虛擬病人,協助醫學實習生的臨床訓練。研究在艾登阿德南門德雷斯大學進行,21名六年級醫學生參與,透過問卷、訪談和觀察收集數據。結果顯示,實習生的自我評估與實際表現正相關,但在問題解決和臨床推理上存在明顯差距,且時間壓力加劇不安感。儘管面臨技術問題,實習生對AI輔助訓練表示滿意,並願意參加類似訓練。研究建議ChatGPT-4o可成為提升臨床技能的有效工具。 相關文章 PubMed DOI 推理

這項研究評估了生成式人工智慧(GenAI)在遠程諮詢中對口腔癌問題的回應準確性。研究人員分析了中國遠程醫療平台的詢問,並在口腔外科醫生的協助下制定參考答案。兩個AI模型,GPT-3.5-turbo和GPT-4o,回答了34個與口腔癌相關的問題。結果顯示,GPT-3.5-turbo的準確率為77.50%,而GPT-4o則達到88.20%。雖然兩者在關鍵點數量上相似,但GPT-4o在可靠性和有效性上更具優勢,適合用於遠程諮詢。總體而言,GPT-4o是處理口腔癌詢問的更佳選擇。 相關文章 PubMed DOI 推理

與藥物相關的不良事件(AEs)是重要的公共衛生議題,而FDA的藥物標籤文件對於藥物安全性研究至關重要。手動提取不良事件數據既耗時又需專業知識,難以跟上更新。為了解決這個問題,開發了名為AskFDALabel的自動化流程,利用大型語言模型(LLM)和檢索增強生成(RAG)技術。該系統在三個基準實驗中表現優異,DILI的F1分數達0.978,DICT為0.931,顯示出顯著提高不良事件註釋的效率與準確性,對藥物安全研究具有重要潛力。 相關文章 PubMed DOI 推理

這項研究評估了兩個人工智慧系統,ChatGPT 4.0 和 Algor,在生成耳鼻喉科概念圖的表現。八位專家根據概念識別、關係建立等標準進行評估。結果顯示,兩者各有優勢,ChatGPT 在交叉連結和佈局上表現佳,特別是鼻整形手術方面;而 Algor 在識別主題和區分概念上更出色,尤其在 BPVV 和鼓膜通氣管的指導方針中。研究建議需進一步探討 AI 在醫學教育中的應用潛力與限制。 相關文章 PubMed DOI 推理

這項研究探討了符合隱私要求的開源大型語言模型(LLMs)在檢測放射科報告錯誤的有效性,並與商業封閉源模型比較。分析了120份報告,發現封閉源模型(如GPT-4)在錯誤檢測率上優於開源模型,分別為88%和79%。不過,開源模型的處理時間較短,每份報告僅需6秒。研究結論指出,開源模型雖然有效,但準確性尚未達到封閉源模型的水準,未來有潛力在保護病人隱私的同時提升臨床工作流程。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs)在分析患者對緊急研究中免除知情同意(EFIC)過程的看法。研究分析了102個與兒科研究相關的社區訪談,使用五種LLMs,包括GPT-4,來評估情感並進行主題分類。結果顯示,LLMs在情感分析上與人類評審者一致性高(Cohen's kappa: 0.69),主題分類準確率也高(0.868)。雖然LLMs在數據分析上效率高,但仍應輔助人類判斷。未來研究應著重於將LLMs整合進EFIC過程,以提升分析效率與準確性。 相關文章 PubMed DOI 推理