LLM 相關三個月內文章 / 第 57 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

心理疾病是全球健康的重要議題,生成式人工智慧(GAI)在提升心理健康護理上展現潛力,但相關研究仍有限。本次綜述回顧了2013至2023年的文獻,分析了144篇文章,找出六個GAI的主要應用,包括心理疾病檢測、諮詢支持等。大多數研究集中在治療和諮詢上,特定心理健康狀況的關注較少。雖然像ChatGPT的工具被廣泛使用,但其在心理疾病檢測的有效性仍需進一步研究。GAI應輔助專業人員,而非取代,並需重視倫理問題以解決心理健康護理的挑戰。 相關文章 PubMed DOI

這項研究探討了支撐ChatGPT的GPT模型在多語言心理文本分析中的有效性。研究分析了15個數據集,包含47,925條推文和新聞標題,評估GPT在12種語言中檢測情感、情緒等心理構念的能力。結果顯示,GPT的表現超越傳統方法,且隨著版本更新準確性提升,特別是在不常用語言中,具成本效益。研究建議GPT能民主化自動文本分析,促進跨語言研究,並提供範例代碼和教學。 相關文章 PubMed DOI

這項研究指出,人工智慧(AI)在兒童放射學的應用上存在重大差距,特別是針對最新的大型語言模型(LLMs),如GPT-4、Gemini 1.5 Pro和Claude 3 Opus。測試結果顯示,這些模型在90張兒童放射影像中,正確診斷率僅27.8%,部分正確率13.3%,錯誤率高達58.9%。研究顯示,儘管多模態LLMs能處理多種輸入,但目前仍缺乏準確解讀兒童放射影像的專業能力。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)如何協助對失去決策能力的病人進行臨床決策。研究指出,代理人和醫師在尊重病人意願時面臨多重挑戰,如壓力和對病人價值觀的誤解。研究模擬了50位需要緊急醫療決策的病人情境,並為每位病人創建了五種價值概況。結果顯示,LLMs在88%的案例中準確提取治療資訊,並獲得專家良好評價,特別是當病人價值以自由文本呈現時。這顯示LLMs可能成為尊重無行為能力病人意願的有用工具。 相關文章 PubMed DOI

這項研究評估了聊天機器人在診斷肺栓塞(PE)及其嚴重性評估的準確性。分析了65份病例報告,結果顯示Bard和Bing的準確率為92.3%,ChatGPT-3.5為87.6%。在首要診斷中,Bard的準確率為56.9%,ChatGPT為47.7%,Bing則為30.8%。雖然這些聊天機器人在識別大規模PE方面表現良好,但也有過度分類的問題。儘管如此,它們仍可作為臨床決策的輔助工具,未來需進一步研究以提升其在實際臨床中的表現。 相關文章 PubMed DOI

大型語言模型(LLMs)如ChatGPT 4、Claude 2和Llama 2,正在改變醫療保健領域的運作,提升臨床流程並減輕醫療系統負擔。不過,AI的快速發展也帶來法律和監管挑戰,特別是在整形與重建外科(PRS)中。目前缺乏針對LLMs和AI在臨床使用的法律框架,可能使醫生面臨訴訟風險。本研究旨在提供法律指導,分析各種模型,澄清醫生的法律責任,確保安全有效地整合AI技術,並降低法律風險。 相關文章 PubMed DOI

隨著人工智慧工具的普及,患者和醫療專業人員越來越依賴這些工具提供的醫療資訊。本研究評估了五個大型語言模型(LLaMA 1、PaLM 2、Claude-v1、GPT-3.5和GPT-4)在2044個腫瘤學相關問題上的表現。結果顯示,GPT-4在與人類基準比較中表現最佳,達到第50百分位以上。雖然GPT-4的準確率高達81.1%,但所有模型仍存在顯著錯誤率,顯示出持續評估這些AI工具的重要性,以確保其安全應用於臨床實踐。 相關文章 PubMed DOI

人工智慧(AI)與合成生物學的結合正在快速發展,但也帶來了複雜的生物安全問題。本文介紹了一套專門的生物安全風險評估流程,幫助專業人士系統性地識別和管理AI應用的潛在風險,特別是針對像「ChatGPT 4.0」這類的AI語言模型。這些工具和方法提供了一個結構化的分析方式,促進風險識別和有效的減緩策略。隨著AI在合成生物學中的角色日益重要,建立安全的實踐變得至關重要,這些資源將在確保負責任的整合中發揮關鍵作用。 相關文章 PubMed DOI

這項研究評估了三個人工智慧模型—ChatGPT、GPT-4 和 Google Bard—在美國耳鼻喉科考試問題上的表現,分析了1,077道文字題和60道圖片題。結果顯示,GPT-4的表現最佳,得分78.7%,而ChatGPT和Bard分別為55.3%和61.7%(p<0.001)。所有模型在簡單問題上表現較好,GPT-4在各子專科得分也較高,僅過敏科差異不顯著。雖然GPT-4表現良好,但在醫學教育和病人護理中的應用仍需謹慎。 相關文章 PubMed DOI