LLM 相關三個月內文章 / 第 115 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了ChatGPT,特別是GPT-4 Omni版本,在第118屆日本醫學執照考試中的表現,分析了文字和影像兩種問題。整體來看,這個模型的準確率相當高,且在兩種問題類型之間沒有明顯差異。不過,它在臨床判斷和優先順序上出現了一些常見錯誤,顯示出在醫學教育和實踐中,持續改進AI的使用是很有必要的。 相關文章 PubMed DOI

在2022年,OpenAI推出的ChatGPT 3.5在醫學教育和研究中被應用,但因信息來源不明和數據過時,準確性受到質疑。本研究評估了ChatGPT在GESEA測試中的表現,結果顯示整體準確率為59%,其中64%的回答有全面解釋。GESEA Level 1的準確率為64%,而Level 2則為54%。這強調了使用AI技術時需進行準確性驗證和倫理考量。未來應探討其在婦科腫瘤學等專業領域的可靠性,並比較不同版本的聊天機器人。總之,AI在科學研究中潛力巨大,但需進一步驗證其有效性。 相關文章 PubMed DOI

這項研究比較了三種人工智慧語言模型—GPT-3.5、GPT-4o 和 Gemini—在提供甲狀腺眼病(TED)患者資訊的有效性。結果顯示,GPT-3.5的表現最佳,正確性得分5.75,可靠性得分5.68,特別在治療和手術選項上表現突出。GPT-4o和Gemini的得分較低,分別為5.32和5.10。研究認為,GPT-3.5是提供TED資訊的最佳選擇,建議臨床醫師在患者教育中使用。 相關文章 PubMed DOI

實體與關係的聯合提取在資訊擷取中非常重要,尤其是在生物醫學文獻中。本文提出的模型有效解決了句內和句間的提取問題,對於長文本中的長距離依賴關係至關重要。模型結合了多種深度學習技術,如微調的BERT、圖卷積網絡、穩健學習及局部正則化條件隨機場,能準確識別生物醫學文本中的實體,並提取三元組關係。實驗結果顯示該模型在多個數據集上表現優異,促進了生物醫學知識圖譜的構建。相關代碼可在GitHub上獲取。 相關文章 PubMed DOI

這項研究提出了一種新方法,利用E-DAIC數據集自動預測憂鬱症的嚴重程度。研究人員運用大型語言模型(LLMs)從訪談文字中提取憂鬱症指標,並用患者健康問卷-8(PHQ-8)分數訓練預測模型。他們還結合視頻中的面部數據,發展多模態方法。結果顯示,增強文字數據的語音質量能達到最佳表現,平均絕對誤差為2.85,均方根誤差為4.02。整體來看,這項研究強調了自動化憂鬱症檢測的有效性,並建議多模態分析的優勢。 相關文章 PubMed DOI

這項研究指出,使用臨床醫師撰寫的標準案例小品來評估症狀評估應用程式(SAAs)存在限制。研究提出了一種新方法,稱為RepVig框架,透過真實的線上病患互動來抽取案例小品,更能反映實際的自我分診情況。結果顯示,這些具代表性的案例小品能提升準確性與安全性,並且在一般民眾及大型語言模型(如GPT-4和Claude)中,過度分診的傾向也較高。研究建議應用這種更具情境相關性的抽樣方法來評估SAAs。 相關文章 PubMed DOI

人類數位雙胞胎系統HDTwin有潛力顛覆個人化認知健康診斷,因為它能整合多種健康數據,形成統一模型。認知健康複雜,整合資訊一直是挑戰。HDTwin利用大型語言模型,將來自不同來源的數據轉換為文本提示,並結合科學文獻,創建預測模型。在124名參與者的研究中,HDTwin準確率高達0.81,顯著超越傳統機器學習的0.65。此外,HDTwin還有聊天機器人介面,方便解釋診斷結果,提升早期檢測和介入策略的效果。 相關文章 PubMed DOI

一項研究評估了聊天機器人GPT-4o和Gemini Advanced在視網膜疾病診斷的能力,分析了50個OCT/OCTA案例。結果顯示,ChatGPT-4o正確診斷了31個案例(62%),明顯優於Gemini Advanced的16個(p=0.0048)。Gemini Advanced在24%的案例中未能提供回應,且兩者都經常誤診黃斑水腫。ChatGPT-4o在外科視網膜問題和醫療視網膜疾病的診斷準確率較高。總體而言,ChatGPT-4o在影像診斷上表現更佳,但仍有改進空間。 相關文章 PubMed DOI

這項研究分析了執業醫生與五年級醫學生對人工智慧(AI)的看法與經驗。調查顯示,26.67%的醫生和13.33%的學生未使用過AI。學生對AI的有效性評價普遍高於醫生,尤其在教育和工作經驗上。雖然兩組人員都使用AI來檢索資訊,但學生對AI在教育和實踐中的應用持較開放態度。儘管認同AI的優勢,雙方對其準確性和可靠性仍有疑慮。研究建議需進一步探討AI在醫學課程中的整合及相關倫理問題。 相關文章 PubMed DOI

這項研究評估了ChatGPT在回答股骨髖臼撞擊症(FAI)常見問題的有效性。研究向ChatGPT 3.5提出十個問題,並將其回答與證據文獻進行比較。結果顯示,大部分回答被評為滿意,僅需少量澄清,兩個回答被評為優秀,只有一個回答不滿意,需大量澄清。整體來看,ChatGPT在提供FAI資訊方面表現良好,但仍強調諮詢醫療專業人士以獲得個人化建議的重要性。 相關文章 PubMed DOI