LLM 相關三個月內文章 / 第 69 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估大型語言模型(LLMs)在生成臨床試驗計畫書的有效性。研究人員使用LLM生成不同疾病和試驗階段的計畫書,並根據臨床思維、透明度、醫學術語和內容相關性四個標準進行評估。結果顯示,LLM在內容相關性和術語方面表現良好,但在臨床思維和透明度上則較差。為提升表現,研究人員採用檢索增強生成(RAG)方法,顯著改善了內容質量,提升了臨床思維和透明度的分數。這表明RAG方法能有效提升LLM在臨床試驗文件撰寫的可用性,並可能改變藥物開發過程。 相關文章 PubMed DOI 推理

這項研究評估了三種大型語言模型(LLMs)—Copilot、GPT-3.5 和 GPT-4—在提供抗瘧疾藥物對系統性紅斑狼瘡(SLE)使用的準確性和完整性。研究設計了十三個問題,兩位風濕病學專家對模型回應進行評分。結果顯示,雖然準確性高,但完整性差異明顯:Copilot 38.5%,GPT-3.5 55.9%,GPT-4 92.3%。特別是在「作用機制」和「生活方式」方面,GPT-4 完整性達100%。研究指出,GPT-4 有潛力改善病人對 SLE 治療的理解,但仍需進一步研究以克服臨床應用的限制。 相關文章 PubMed DOI 推理

代謝功能障礙相關脂肪肝病(MASLD)正成為全球健康的重要議題,管理方式主要依賴生活方式與飲食調整。本研究評估了ChatGPT(GPT-4o)所生成的MASLD飲食計畫,並與現行指導方針進行比較。針對48位模擬患者的單日餐計畫,發現其能量含量和纖維含量符合標準,但蛋白質、脂肪及飽和脂肪含量偏高,碳水化合物則低於建議。雖然ChatGPT顯示潛力,但在宏量營養素分配及缺乏關鍵建議方面仍需改進,以提升其飲食建議的有效性。 相關文章 PubMed DOI 推理

這段對話探討了大型語言模型(LLMs)如ChatGPT的能力與限制。使用者詢問ChatGPT為何會被認為具理解能力,ChatGPT解釋其實際上是基於統計模式生成回應,並不具備真正的理解。接著,對話深入探討了語言的循環性、鏡像效應、圖示性及類別知覺等概念,並提到喬姆斯基的思維法則。整體上,這段對話幫助使用者更清楚了解LLMs的運作原理及其固有的偏見。 相關文章 PubMed DOI 推理

一項針對眼科醫生的調查顯示,對AI聊天機器人ChatGPT的接受度逐漸提高。199名參與的眼科外科醫生中,約三分之二擁有超過15年經驗,116位曾使用ChatGPT。使用者普遍認為AI在眼科有助於早期疾病檢測和病人監測等,但對於責任、隱私和診斷準確性等問題仍有顧慮。整體來看,雖然對AI的接受度上升,但仍需人類監督以解決隱私和工作取代的擔憂。 相關文章 PubMed DOI 推理

這項研究探討了ChatGPT-4在回答口腔及顏面外科疾病問題的有效性,這些疾病影響全球約35億人。研究使用思維鏈(CoT)方法,評估其在提升公眾對疾病預防和早期檢測認識的表現。專家從全國牙醫執照考試中選取了130道開放式問題和1,805道選擇題。結果顯示,CoT方法顯著提升了ChatGPT-4在開放式問題的準確性和整體表現,選擇題準確性也提高了3.1%。研究強調,ChatGPT-4不應取代醫療專業人員。 相關文章 PubMed DOI 推理

在日本,消費者可無需藥師諮詢購買大多數非處方藥,這讓用藥諮詢變得更重要。研究評估了ChatGPT-3.5對22種OTC藥物的回應準確性,結果僅20.8%符合標準。2023年11月推出的新版本ChatGPT-4,經過自訂後在用藥指導上表現更佳,準確率達93.2%,顯著優於ChatGPT-3.5。研究建議透過藥物包裝說明書資訊和有效提示來自訂ChatGPT,以提升其作為臨床藥學工具的實用性。 相關文章 PubMed DOI 推理

這項研究探討了ChatGPT-4在牙科領域進行基於證據的決策的可行性。兩位牙醫與ChatGPT-4互動,分析五個臨床情境,並參考Cochrane、ADA和PubMed的文獻。結果顯示,ChatGPT-4表現穩定,能有效識別相關證據並提供摘要,節省臨床醫師的時間。不過,它無法提供直接的網頁連結到引用的文章,這是個限制。總體而言,ChatGPT-4在EBDM中顯示出潛力,但臨床醫師仍需負責評估證據和做出決策。 相關文章 PubMed DOI 推理

這項研究探討急診部門對有監禁歷史病人的照護,揭示他們面臨的偏見與差異。研究分析了480,374份急診紀錄,發現有監禁歷史的病人大多為男性,且來自少數族群,失業、吸菸和物質使用的比例較高。這些病人逃脫、違醫囑離開及接受鎮靜和約束的機率顯著較高。即使調整各種因素後,監禁歷史與逃脫的關聯仍然明顯,顯示對被監禁者的照護存在差異,並突顯自然語言處理在揭示健康照護不平等中的價值。 相關文章 PubMed DOI 推理

這項研究評估了ChatGPT(版本3.5和4)在解讀心肺運動測試(CPET)結果的有效性,特別針對不明原因的呼吸困難病人。分析150名病人後,專家肺科醫生建立了金標準來分類CPET結果。GPT-3.5的正確解讀率為67%,而GPT-4則顯示更高準確性,對呼吸限制的敏感度達83%。結合兩個模型的結果,敏感度提升至91%。研究指出,低工作率和峰值氧氣消耗量是解讀不準確的獨立預測因子,顯示這些AI模型在臨床上有潛在應用價值。 相關文章 PubMed DOI 推理