LLM 相關三個月內文章 / 第 53 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了ChatGPT-4 Vision在解讀臨床影像(如X光、CT、MRI等)的表現。分析了206個影像研究,結果顯示提供臨床上下文能顯著提高診斷準確率,從8.3%提升至29.1%和63.6%。但在30天和90天後重新評估時,準確率下降多達30%。雖然建議診斷與實際發現匹配率高達92.7%,但GPT-4V仍虛構了258個發現,並錯誤識別了65個案例。總體來看,GPT-4V目前無法可靠解讀放射影像,需進一步改進以確保病人安全。 相關文章 PubMed DOI

本研究透過結構化方法,開發並驗證針對造口病患的人工智慧輔助教育材料。研究包含五個步驟:識別資訊需求、創建內容、轉換為病患友好材料、專家審查及可讀性評估。使用 ChatGPT 4.0 確定需求並生成內容,並用 PEMAT 評估材料有效性。結果顯示,材料的可理解性得分為 81.91%,可行性得分為 85.33%。雖然材料準確且易懂,但對某些病患來說,閱讀上仍有挑戰。研究顯示人工智慧在病患教育中的潛力,並強調需進一步了解其對病患結果的影響。 相關文章 PubMed DOI

本研究探討了ChatGPT對教師數位能力(TDC)的影響,並分析基本心理需求滿足(BPNS)在其中的中介作用。研究在中國進行,收集了632名教師的數據,結果顯示ChatGPT顯著提升教師的數位能力,主要透過滿足他們對能力和關聯性的需求,而自主性影響不大。建議在設計教育工具時,應重視教師的心理需求,以促進他們的專業成長和福祉,並強調教師在數位轉型中的重要性。 相關文章 PubMed DOI

這項研究評估了ChatGPT對上尿路尿路上皮癌(UTUC)病人常見問題的回應質量。共15個問題被分為一般資訊、症狀與診斷、治療及預後。泌尿科醫生根據五個標準評分,結果顯示平均得分為3.93,其中一般資訊得分最高(4.14),治療相關回應得分最低(3.68)。雖然ChatGPT能提供基本資訊,但在治療問題上未完全滿足需求,且有安全隱患,建議在病人教育中謹慎使用。 相關文章 PubMed DOI

這項研究探討了人工智慧在放射學教育和溝通中的多媒體生成技術潛力。重點在於使用穩定擴散和變壓器進行視頻合成,並利用Midjourney、RunwayML Gen2等工具創建逼真的內容。研究期間共產生440張圖像和22個視頻,並製作了兩個聲音克隆視頻。雖然生成內容的真實性有所不同,但在放射學中可應用於增強3D視覺化、教育和病患互動等方面。論文也提到AI生成內容的限制與倫理問題,強調負責任的使用和跨領域合作的重要性。 相關文章 PubMed DOI

這項研究系統性評估了兩個語言學習模型,ChatGPT-4.0 和 Google Bard 的 Gemini Advanced,在眼科問題的回答表現。使用眼科知識評估計畫的題庫,測試了260道選擇題。結果顯示,ChatGPT-4.0 在文字問題上的準確率為57.14%,高於 Gemini Advanced 的46.72%;在簡單問題上,ChatGPT-4.0 得分68.99%,而 Gemini Advanced 為49.61%。在圖像問題上,ChatGPT-4.0 的正確率為39.58%,Gemini Advanced 為33.33%。研究結論認為,ChatGPT-4.0 在眼科選擇題上表現較佳,顯示其在醫學教育中的潛力,但仍需進一步評估其可靠性。 相關文章 PubMed DOI

本研究評估九種聊天機器人在回答特殊需求牙科問題的準確性與一致性。測試結果顯示,這些機器人的平均準確率為55%,其中是非題的準確率較高(67%),而診斷問題則較低(37%)。不同機器人之間的準確性無顯著差異,但所有機器人的可靠性均可接受,Claude-instant的可靠性最高(0.93)。雖然目前臨床相關性尚未完全確立,但這些工具在特殊需求牙科領域未來可能具潛在應用價值。 相關文章 PubMed DOI

這篇回顧探討了ChatGPT在視網膜健康照護的應用,分析其潛在好處與挑戰。我們從多個資料庫搜尋自2022年以來的相關研究,共納入68篇文章,涵蓋學術研究、診斷、疾病管理等領域。結果顯示,ChatGPT在醫學教育和診斷支持上有很大潛力,但也需注意其準確性和錯誤資訊的風險。未來應著重提升準確性並降低風險,以確保其在臨床實務中的有效性。 相關文章 PubMed DOI

這項研究比較了三層級的分診協議,包括分診護士、急診醫師和人工智慧模型(ChatGPT、Gemini 和 Pi),在2024年4月1日至4月7日於一所三級醫療機構的急診部門進行,分析了500名病人的數據。結果顯示,只有23.8%的病人獲得一致分類,分診護士對6.4%的病人過度分診,且人工智慧模型的分診不足率偏高,特別是ChatGPT在黃碼和紅碼病人中分診不足達26.5%和42.6%。結論指出,急診環境中不應僅依賴人工智慧進行分診。 相關文章 PubMed DOI

這項研究比較了ChatGPT-4和Google Bard生成的白內障手術病人教育材料,共整理了98個常見問題,分為病情、手術準備和手術後恢復三個領域。結果顯示,Google Bard的回答較為複雜,但ChatGPT-4在可理解性上表現更佳,特別是在手術準備和恢復方面。兩者在可行性上無顯著差異,且均未提供危險信息。研究建議未來應納入真實病人的意見,以提升材料的相關性。 相關文章 PubMed DOI