LLM 相關三個月內文章 / 第 38 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了2023年美國一所研究型大學的本科生在一門專注於可持續性與科技的通識課程中如何運用人工智慧(AI)。39名學生在最終專案中記錄了他們對AI的使用,分析了可持續性概念的聯繫。研究發現,學生主要用AI來增強表達,部分學生則用於更複雜的任務,如論點發展。雖然許多學生對AI生成的內容持懷疑態度,強調智識獨立性的重要性,但研究顯示AI在高等教育中有助於學習的潛力。 相關文章 PubMed DOI 推理

這篇論文介紹了網格人工智慧助手(GAIA),一種新型的大型語言模型,旨在提升電力調度的效率,對於穩定、經濟且環保的電力供應至關重要。傳統方法在複雜電力系統中表現不佳,而GAIA能協助進行操作調整和監控等任務。作者開發了獨特的數據集和提示策略,讓GAIA在ElecBench基準測試中表現優於LLaMA2。實際應用中,GAIA改善了決策制定和人機互動,為電力領域的未來發展奠定基礎。 相關文章 PubMed DOI 推理

在2023年中,有一項研究針對40名藥理學畢業專題的學生,評估他們對新型協作多媒體評估的體驗,該評估使用了人工智慧(AI)。研究發現,學生最初將AI視為個人導師,並將其角色分為仲裁者、神諭者和量化者。然而,實際上AI的使用主要集中在創意生成和數據分析,並未有小組利用AI生成最終的書面內容。這顯示學生對AI在評估中的角色存在疑慮,強調了教育者和學生需要更清晰的指導,以有效整合AI於學習和評估中,維持評估的完整性。 相關文章 PubMed DOI 推理

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4o、Google Gemini 1.5 Pro 和 Microsoft Copilot Pro—在回答葡萄膜炎和眼部炎症問題的表現,並與眼科醫生進行比較。研究隨機選取100個問題,結果顯示LLMs的正確回答率為80%至81%,而眼科醫生為72%。儘管LLMs的準確率較高,但統計分析顯示它們之間及與人類醫生之間並無顯著差異,因此無法證明LLMs在此領域的優越性。 相關文章 PubMed DOI 推理

將人工智慧(AI)和大型語言模型(LLMs)整合進德國醫療系統,能提升病人護理和臨床研究,但因數據保護法律複雜,實際應用仍有限。關鍵因素包括遵守GDPR、獲得病人同意、建立數據處理協議、確保醫療監督及提供者透明度。隨著AI技術進步,LLMs的應用潛力將增強,但需明確法律和倫理指導,以保障病人權益和數據安全。 相關文章 PubMed DOI 推理

這項研究評估了Visual ChatGPT在真實病人影像中進行壓力性傷害分期的效果,並與專業護理人員的表現進行比較。研究分析了155張影像,結果顯示專業護理人員的準確性較高。Visual ChatGPT在早期傷害評估上表現不錯,尤其是考慮傷口特徵時,但在處理複雜案例上仍需改進。這顯示AI在傷口護理中有輔助潛力,特別對於經驗不足的護理人員或缺乏專家的地區。研究遵循STROBE檢查表,未涉及病人或公眾參與。 相關文章 PubMed DOI 推理

這篇評論指出將像ChatGPT這樣的AI技術應用於醫療領域的潛在好處,包括提升效率、降低成本和改善病人結果。不過,它也強調了解決倫理挑戰的重要性,以確保公平使用。評論將這些挑戰分為五個主要領域:偏見、隱私、錯誤資訊、自主性和問責。為了解決這些問題,提出了INNOVATE框架,旨在為AI在醫療中的應用提供明確的倫理指導,促進負責任的整合,並減少倫理顧慮。 相關文章 PubMed DOI 推理

這項研究探討大型語言模型(LLMs),如ChatGPT、Gemini和Copilot,在乳房影像學問題上的表現。研究中,五位乳房放射科醫生提出九個乳房攝影篩檢問題,並由兩位專家評估LLMs的回答。結果顯示,兩種語言的回答平均分數相似,約在3.6到4分之間。一般問題的回答較準確,但針對特定問題,尤其是密集乳房的定義,回答常常不完整。此外,意大利語的來源引用不夠專業,顯示LLMs在提供醫療資訊上的限制。總體而言,LLMs雖能促進醫療溝通,但在專業領域的準確性仍需加強,強調AI與醫療專業人員合作的重要性。 相關文章 PubMed DOI 推理

大型語言模型(LLMs)如ChatGPT在醫學領域的應用潛力巨大,但也帶來了準確性和可靠性的挑戰。研究顯示,LLMs能提供正確的疾病管理資訊,但必須符合國際指導方針。關鍵考量包括回應的可讀性、與指導方針的一致性、資訊來源的時效性、跨模型和跨語言的一致性,以及臨床使用的驗證。總之,雖然LLMs能提升醫學教育和決策,但仍需謹慎評估,以確保其在臨床中的安全與有效性。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT-3.5和ChatGPT-4在回答台灣醫師執照考試醫學問題的表現,特別關注繁體中文的能力。結果顯示,ChatGPT-3.5在基礎醫學科學的準確率為67.7%,臨床醫學為53.2%;而ChatGPT-4的表現明顯優於前者,準確率分別達到91.9%和90.7%。雖然問題類型對準確率影響不大,但ChatGPT-4在所有科目中均表現良好,顯示AI在醫學教育中的潛力,實施時仍需謹慎考量不同專業的變異性。 相關文章 PubMed DOI 推理