LLM 相關三個月內文章 / 第 129 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究著重於建立安全的基礎設施,以便在醫療保健中使用大型語言模型(LLMs),特別針對數據安全和病人隱私的問題,並確保符合HIPAA規範。研究團隊在私有的Azure OpenAI Studio上部署,提供安全的API端點,並測試了兩個應用:從電子健康紀錄中檢測跌倒,以及評估心理健康預測中的偏見。這個框架成功確保了病人隱私,讓研究人員能安全處理敏感數據,為醫療機構提供可擴展的解決方案。 相關文章 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)自動化提取生活系統性回顧(LSRs)中的數據,模擬兩位審稿人的流程。分析了來自10個試驗的數據,針對23個變數進行研究。使用的模型包括GPT-4-turbo和Claude-3-Opus。結果顯示,在提示開發集中,模型達到96%的高一致性率,但在測試集中降至87%。經過交叉評析後,51%的不一致回應變得一致,整體準確率提升至0.76。研究表明,LLMs能有效支持數據提取,促進系統性回顧的進行。 相關文章 PubMed DOI

這項研究探討了不同的多模態輸入如何影響OpenAI的GPT-4視覺版(GPT-4V)在腦部MRI診斷的表現。研究選取60個具有驗證診斷的腦部MRI案例,根據影像、註解、病史和影像描述四個元素創建七個提示組。結果顯示,四個元素的組合達到最高診斷準確率69%。影像描述對準確性影響顯著,而僅依賴影像則導致低準確率。總結來說,文字描述是提升診斷表現的關鍵,病史也有助益。 相關文章 PubMed DOI

這項研究探討健康專業學生對ChatGPT的看法及其對醫療和教育的影響。研究發現,86.2%的學生了解ChatGPT,且普遍持正面評價,平均分數為4.04。學生欣賞其在信息檢索和摘要的能力。質性分析顯示三個主題:使用經驗、對醫療品質的影響及教育整合。雖然有好處,如輕鬆獲取信息,但也擔心倫理問題及批判性思維的影響。不同學科間看法一致,建議持續改進以提升準確性和可靠性,並平衡優勢與倫理考量。 相關文章 PubMed DOI

這項研究評估了ChatGPT-3.5在回答口腔癌相關問題的準確性,因為早期診斷對患者結果影響重大。研究中提出20個問題,並由醫療專家評估其回答。結果顯示,51.25%的答案被評為非常好,46.25%為好,僅2.5%可接受。專家評分間無顯著差異。雖然ChatGPT提供的資訊可靠,但引用的81篇文獻中,只有13篇是合法的科學文章,10篇為假文獻,其餘則來自各種網站。總體而言,ChatGPT的資訊值得參考,但需謹慎對待其引用來源。 相關文章 PubMed DOI

藥物開發傳統上是一個繁瑣且耗時的過程,主要依賴專業知識和反覆試驗。不過,隨著人工智慧(AI)特別是大型語言模型和生成式AI的興起,這個領域正迎來變革。AI技術提升了藥物開發各階段的效率,包括疾病靶點識別、藥物發現、臨床前及臨床研究,甚至上市後的監測。這篇文章探討了AI在藥物開發中的最新應用,並分析了目前仍面臨的挑戰,指出未來研究的潛力。 相關文章 PubMed DOI

專案「MyEcoReporter」利用人工智慧聊天機器人,簡化環境事件的報告。社區成員常注意到化學物質釋放,但報告時遇到困難。這個聊天機器人讓使用者能透過簡訊輕鬆表達關切。應用程式採用Python、AWS Lambda、DynamoDB和Twilio等技術,收集必要資訊,並提供友好的使用體驗。這種創新方式展示了人工智慧如何將社區環境關切轉化為結構化數據,便於提交給政府機構,提升報告流程。 相關文章 PubMed DOI

網路評論的興起對消費者購買決策和產品開發影響深遠,但生成式AI技術如ChatGPT的出現,讓人擔心商家可能會製造虛假評論,影響評論的可信度。為了解決這個問題,提出了一種新方法,結合AI生成評論的檢測,專注於產品屬性。這方法利用預訓練語言模型來檢測評論真實性,並分析用戶偏好,改善產品開發的成本控制與設計決策。實驗結果顯示此方法相較於現有技術具優勢。 相關文章 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在從電子健康紀錄中提取數據的表現,使用了50份合成醫療筆記。共測試了18個LLM,並與基準模型RoBERTa比較,涵蓋多個任務。表現最佳的模型包括Claude 3.0 Opus、GPT 4等,準確率超過0.98,明顯優於RoBERTa的0.742。這些模型在多次測試中也展現出一致性,顯示出能有效協助數據提取,減輕醫療人員的負擔。不過,仍需用真實數據進一步驗證其實際應用效果。 相關文章 PubMed DOI

這項研究評估了一本教科書與GPT-4在非創傷性脊髓損傷(NTSCI)方面的可讀性與可靠性,特別針對ABPMR認證。主要發現包括: 1. 教科書可讀性分數為14.5,GPT-4為17.3,顯示GPT-4的解釋較複雜(p < 0.001)。 2. GPT-4的解釋中有86%屬於「非常困難」,教科書則為58%(p = 0.006)。 3. GPT-4能簡化九個複雜解釋,保持字數不變,顯示其適應性。 4. GPT-4的準確率為96%,顯著優於GPT-3.5的84%(p = 0.046)。 總體而言,研究顯示GPT-4在醫學教育中具潛力,能提供準確且易懂的解釋。 相關文章 PubMed DOI