LLM 相關三個月內文章 / 第 62 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

自然語言處理(NLP)是人工智慧的一個重要領域,專注於理解和生成自然語言,尤其在醫療領域的應用越來越普遍。這篇回顧分析了2018至2023年間的27篇相關論文,探討NLP如何改善病患溝通、篩選電子健康紀錄,並自動化臨床試驗的候選者識別。研究顯示,NLP技術能有效處理大型非結構化數據,提升公眾情感分析和風險預測模型的準確性,並幫助醫療提供者縮短與病患的溝通距離,進而提升醫療服務品質。 相關文章 PubMed DOI

感染性心內膜炎(IE)對高風險患者在牙科手術前需進行抗生素預防。研究測試了七個大型語言模型(LLMs)在提供IE抗生素預防資訊的準確性,使用基於2021年美國心臟協會指導方針的28個是非題。結果顯示,模型間準確性差異顯著,使用預先提示時表現普遍較佳,GPT-4o達到80%的最高準確率。雖然沒有模型達到理想的準確性標準,但仍顯示出潛力,顯示需進一步訓練以提升醫療查詢的有效性。 相關文章 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4o和Claude 3-Opus,在超音波影像中分類甲狀腺結節的表現。研究涵蓋112位患者的116個結節,結果顯示ChatGPT-4o的Kappa值為0.116,Claude 3-Opus更低,僅0.034,而初級放射科醫師的Kappa值為0.450,顯示中等協議。ROC曲線方面,ChatGPT-4o的AUC為57.0%,Claude 3-Opus為52.0%,醫師則為72.4%。兩個LLM的不必要活檢率也高,分別為41.4%和43.1%,醫師僅12.1%。這顯示LLMs在醫學影像的診斷準確性仍有限,需謹慎使用。 相關文章 PubMed DOI

這項研究評估了AI聊天機器人GPT-4o和Claude-3在面對醫療診斷不確定性時的表現,與320名家庭醫學住院醫師相比。結果顯示,住院醫師的正確率為61.1%至63.3%,而Claude-3和GPT-4o的正確率分別為57.7%和53.3%。Claude-3的回應時間較長,回答字數也較多,而GPT-4o的錯誤多為邏輯性錯誤。整體來看,雖然AI在醫學知識上有潛力,但在診斷不確定性方面仍不及人類醫師。 相關文章 PubMed DOI

對於大型語言模型(LLMs)可能擴散錯誤資訊的擔憂是合理的,因為這些模型生成的內容難以與可信來源區分,容易造成真實與虛假資訊的混淆。這可能導致錯誤資訊的強化,讓人們難以辨別事實。 使用者互動和分享這些內容,可能形成反饋循環,進一步鞏固錯誤資訊。這樣的情況可能影響民主過程、信任機構,甚至造成社會分裂。因此,推廣媒體素養、批判性思維及事實查核機制非常重要。同時,提升LLMs訓練和資訊來源的透明度,能減少錯誤資訊的風險,確保科技能增進我們對現實的理解。 相關文章 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 4.0 和 Gemini 1.0 Pro,在生成病人指導和教育材料的效果。研究發現,兩者提供的信息一致且可靠,但在藥物過期和處理指導上有所不足。ChatGPT 4.0 在可理解性和可行性上表現較佳,且其輸出可讀性較高。整體來看,這些模型能有效生成病人教育材料,但仍需醫療專業人員的監督與指導,以確保最佳實施。 相關文章 PubMed DOI

大型語言模型(LLMs)如ChatGPT在醫療領域的應用引起了廣泛關注。Anaya等人的研究比較了ChatGPT生成的心衰竭醫學教育材料與美國知名機構的資料可讀性,並對結果進行了批判性評估。這篇評論探討了如何改善心臟病學相關LLMs研究的可重複性,並提出了未來研究中更有效抽樣LLM回應的建議。儘管該研究提供了有價值的見解,但仍需進一步研究以克服現有限制,增進對這些創新工具的理解。 相關文章 PubMed DOI

糖尿病視網膜病變(DR)是一種可能導致失明的嚴重眼疾,篩檢通常需拍攝視網膜照片並記錄病情,但報告多為非結構化,分析困難且耗時。這項研究介紹了DR-GPT,一個大型語言模型,能從這些非結構化報告中準確分類DR的嚴重程度。研究結果顯示,DR-GPT的準確率高,並且在結合視網膜圖像後,影像分類器的表現顯著提升,顯示大型語言模型在醫療報告分析中的潛力。 相關文章 PubMed DOI

這篇文章介紹了一種名為知識感知注意力網絡(LKAN)的新技術,專門用於肝癌的臨床分期,這對於診斷和治療原發性肝癌非常重要。現有的分期系統依賴醫生解讀放射學報告,但面臨類別不平衡、專業術語處理困難及報告冗長等挑戰。LKAN結合大型語言模型和規則算法,增強數據多樣性,並在未標記的肝癌報告上進行預訓練,改善學習效果。結果顯示,LKAN的準確率達90.3%,表現優於基準模型,且代碼已在GitHub上公開。 相關文章 PubMed DOI

這項研究評估了ChatGPT3.5和ChatGPT4在生成乳房篩檢病人資訊表的表現。雖然兩者提供了一些有用資訊,但準確性和清晰度都不理想。ChatGPT4在可理解性和可行性上表現較好,但仍有明顯遺漏。整體而言,這兩個版本被視為不可靠的健康資訊來源,特別是對健康素養較低的人士。這引發了對乳房篩檢參與可能造成的負面影響的擔憂,並強調醫療教育者需針對AI工具的錯誤資訊進行處理。 相關文章 PubMed DOI