LLM 相關三個月內文章 / 第 61 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了AI聊天機器人GPT-4o和Claude-3在面對醫療診斷不確定性時的表現,與320名家庭醫學住院醫師相比。結果顯示,住院醫師的正確率為61.1%至63.3%,而Claude-3和GPT-4o的正確率分別為57.7%和53.3%。Claude-3的回應時間較長,回答字數也較多,而GPT-4o的錯誤多為邏輯性錯誤。整體來看,雖然AI在醫學知識上有潛力,但在診斷不確定性方面仍不及人類醫師。 相關文章 PubMed DOI

對於大型語言模型(LLMs)可能擴散錯誤資訊的擔憂是合理的,因為這些模型生成的內容難以與可信來源區分,容易造成真實與虛假資訊的混淆。這可能導致錯誤資訊的強化,讓人們難以辨別事實。 使用者互動和分享這些內容,可能形成反饋循環,進一步鞏固錯誤資訊。這樣的情況可能影響民主過程、信任機構,甚至造成社會分裂。因此,推廣媒體素養、批判性思維及事實查核機制非常重要。同時,提升LLMs訓練和資訊來源的透明度,能減少錯誤資訊的風險,確保科技能增進我們對現實的理解。 相關文章 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 4.0 和 Gemini 1.0 Pro,在生成病人指導和教育材料的效果。研究發現,兩者提供的信息一致且可靠,但在藥物過期和處理指導上有所不足。ChatGPT 4.0 在可理解性和可行性上表現較佳,且其輸出可讀性較高。整體來看,這些模型能有效生成病人教育材料,但仍需醫療專業人員的監督與指導,以確保最佳實施。 相關文章 PubMed DOI

大型語言模型(LLMs)如ChatGPT在醫療領域的應用引起了廣泛關注。Anaya等人的研究比較了ChatGPT生成的心衰竭醫學教育材料與美國知名機構的資料可讀性,並對結果進行了批判性評估。這篇評論探討了如何改善心臟病學相關LLMs研究的可重複性,並提出了未來研究中更有效抽樣LLM回應的建議。儘管該研究提供了有價值的見解,但仍需進一步研究以克服現有限制,增進對這些創新工具的理解。 相關文章 PubMed DOI

糖尿病視網膜病變(DR)是一種可能導致失明的嚴重眼疾,篩檢通常需拍攝視網膜照片並記錄病情,但報告多為非結構化,分析困難且耗時。這項研究介紹了DR-GPT,一個大型語言模型,能從這些非結構化報告中準確分類DR的嚴重程度。研究結果顯示,DR-GPT的準確率高,並且在結合視網膜圖像後,影像分類器的表現顯著提升,顯示大型語言模型在醫療報告分析中的潛力。 相關文章 PubMed DOI

這篇文章介紹了一種名為知識感知注意力網絡(LKAN)的新技術,專門用於肝癌的臨床分期,這對於診斷和治療原發性肝癌非常重要。現有的分期系統依賴醫生解讀放射學報告,但面臨類別不平衡、專業術語處理困難及報告冗長等挑戰。LKAN結合大型語言模型和規則算法,增強數據多樣性,並在未標記的肝癌報告上進行預訓練,改善學習效果。結果顯示,LKAN的準確率達90.3%,表現優於基準模型,且代碼已在GitHub上公開。 相關文章 PubMed DOI

這項研究評估了ChatGPT3.5和ChatGPT4在生成乳房篩檢病人資訊表的表現。雖然兩者提供了一些有用資訊,但準確性和清晰度都不理想。ChatGPT4在可理解性和可行性上表現較好,但仍有明顯遺漏。整體而言,這兩個版本被視為不可靠的健康資訊來源,特別是對健康素養較低的人士。這引發了對乳房篩檢參與可能造成的負面影響的擔憂,並強調醫療教育者需針對AI工具的錯誤資訊進行處理。 相關文章 PubMed DOI

這項研究探討了醫療學術界對AI語言模型ChatGPT在教育和研究上的影響。研究採用現象學分析,訪問了九位來自土耳其大學的學者。結果顯示,雖然ChatGPT能迅速提供資訊,但有時缺乏最新和準確的數據。學者們擔心學生在作業中濫用ChatGPT,可能會損害批判性思維和資訊檢索能力。他們強調需要專家監督來驗證生成的數據。研究建議機構應制定指導方針,以確保學術誠信,並呼籲未來研究探討AI工具對教育成果的長期影響。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在健康心理學中如何增強健康評估,旨在克服傳統統計和機器學習方法的限制。傳統方法因線性評分而準確性不足,而機器學習則在可解釋性和數據需求上有挑戰。研究提出的ScaleLLM利用LLMs的自然語言理解能力,提供健康量表的專家評估。實驗結果顯示,ScaleLLM在身心健康評估的準確性和可解釋性上都有所提升,成為該領域的一個有前景的工具。 相關文章 PubMed DOI

人工智慧(AI)在醫療領域的應用,特別是針對腎癌的病人教育材料(PEMs),帶來了顯著變化。本研究比較了ChatGPT 4.0、Gemini AI和Perplexity AI生成的資訊準確性與可讀性,並與美國泌尿學會(AUA)和歐洲泌尿學會(EAU)的PEMs進行對照。結果顯示,AUA的PEM可讀性最佳,AI生成的內容雖然準確,但在治療資訊上有些小遺漏。雖然AI能簡化內容,但在病人教育中使用時仍需謹慎,以免造成誤解。 相關文章 PubMed DOI