LLM 相關三個月內文章 / 第 129 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文探討了ChatGPT如何幫助人類產生創意解決方案。透過五個實驗,參與者使用ChatGPT(GPT-3.5)進行腦力激盪,針對選擇禮物、創造玩具、重新利用物品及設計創新家具等任務提出想法。研究發現,與傳統方法相比,ChatGPT顯著提升了創造力,尤其在產生漸進式新想法方面表現突出。研究建議,ChatGPT擅長將不相關的概念融合,產生更清晰且具表達力的建議。 相關文章 PubMed DOI

這項研究比較了通用的 ChatGPT-4 模型與客製化的手術胃食道逆流病工具 (GTS) 在提供胃食道逆流病手術建議的表現。結果顯示,GTS 在外科醫生和病人的詢問中準確率達到 100%,而通用模型對外科醫生的準確率僅為 66.7%,對病人則為 47.5%。GTS 的建議基於證據,符合 2021 年的指導方針,顯示客製化大型語言模型在臨床指導中的潛力。未來需進一步研究其在實際臨床環境中的有效性。 相關文章 PubMed DOI

將生成式人工智慧(如大型語言模型)整合進眼科教育和實踐,能提升診斷準確性和病人照護。這些技術可用於教育病人和醫生,並提供臨床決策支持,增強學習體驗。然而,挑戰包括生成不正確資訊的風險、系統偏見及過時數據問題。當前教育計畫已開始納入人工智慧,未來需建立評估指標、結合人類監督及利用影像數據。倫理考量如數據隱私和透明度也必須重視,以確保人工智慧的負責任應用。 相關文章 PubMed DOI

心理疾病是全球健康的重要議題,生成式人工智慧(GAI)在提升心理健康護理上展現潛力,但相關研究仍有限。本次綜述回顧了2013至2023年的文獻,分析了144篇文章,找出六個GAI的主要應用,包括心理疾病檢測、諮詢支持等。大多數研究集中在治療和諮詢上,特定心理健康狀況的關注較少。雖然像ChatGPT的工具被廣泛使用,但其在心理疾病檢測的有效性仍需進一步研究。GAI應輔助專業人員,而非取代,並需重視倫理問題以解決心理健康護理的挑戰。 相關文章 PubMed DOI

這項研究探討了支撐ChatGPT的GPT模型在多語言心理文本分析中的有效性。研究分析了15個數據集,包含47,925條推文和新聞標題,評估GPT在12種語言中檢測情感、情緒等心理構念的能力。結果顯示,GPT的表現超越傳統方法,且隨著版本更新準確性提升,特別是在不常用語言中,具成本效益。研究建議GPT能民主化自動文本分析,促進跨語言研究,並提供範例代碼和教學。 相關文章 PubMed DOI

這項研究指出,人工智慧(AI)在兒童放射學的應用上存在重大差距,特別是針對最新的大型語言模型(LLMs),如GPT-4、Gemini 1.5 Pro和Claude 3 Opus。測試結果顯示,這些模型在90張兒童放射影像中,正確診斷率僅27.8%,部分正確率13.3%,錯誤率高達58.9%。研究顯示,儘管多模態LLMs能處理多種輸入,但目前仍缺乏準確解讀兒童放射影像的專業能力。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)如何協助對失去決策能力的病人進行臨床決策。研究指出,代理人和醫師在尊重病人意願時面臨多重挑戰,如壓力和對病人價值觀的誤解。研究模擬了50位需要緊急醫療決策的病人情境,並為每位病人創建了五種價值概況。結果顯示,LLMs在88%的案例中準確提取治療資訊,並獲得專家良好評價,特別是當病人價值以自由文本呈現時。這顯示LLMs可能成為尊重無行為能力病人意願的有用工具。 相關文章 PubMed DOI

這項研究評估了聊天機器人在診斷肺栓塞(PE)及其嚴重性評估的準確性。分析了65份病例報告,結果顯示Bard和Bing的準確率為92.3%,ChatGPT-3.5為87.6%。在首要診斷中,Bard的準確率為56.9%,ChatGPT為47.7%,Bing則為30.8%。雖然這些聊天機器人在識別大規模PE方面表現良好,但也有過度分類的問題。儘管如此,它們仍可作為臨床決策的輔助工具,未來需進一步研究以提升其在實際臨床中的表現。 相關文章 PubMed DOI

大型語言模型(LLMs)如ChatGPT 4、Claude 2和Llama 2,正在改變醫療保健領域的運作,提升臨床流程並減輕醫療系統負擔。不過,AI的快速發展也帶來法律和監管挑戰,特別是在整形與重建外科(PRS)中。目前缺乏針對LLMs和AI在臨床使用的法律框架,可能使醫生面臨訴訟風險。本研究旨在提供法律指導,分析各種模型,澄清醫生的法律責任,確保安全有效地整合AI技術,並降低法律風險。 相關文章 PubMed DOI