LLM 相關三個月內文章 / 第 73 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究發現,在網路政治辯論中,若多加理由說明、用友善語氣、展現妥協意願,都能明顯提升討論品質和開放心態,讓高品質討論機率增加1.6到2倍。不過,這些做法並不會改變對方的政治立場,但有助於促進更健康的民主互動。 相關文章 PubMed DOI 推理

大部分醫療紀錄都是非結構化,讓資料分析很困難。這項研究測試九種大型語言模型,能自動從兒科臨床報告擷取結構化資料。不論是商業還是開源模型,表現都很優秀,最好的模型辨識重要病患資訊的準確率超過九成。LLMs為醫療資料擷取提供靈活又準確的替代方案,有機會取代人工處理。 相關文章 PubMed DOI 推理

這項研究訪談24位中國腫瘤科醫師,發現他們認為AI聊天機器人能幫助病患獲取資訊、管理慢性病,但也擔心責任歸屬、錯誤資訊、缺乏個人化、隱私及病患準備度等問題。醫師認為,AI有機會改善或傷害醫病關係。研究建議,若要安全導入,需明確政策、完善測試、機構支持及教育訓練。 相關文章 PubMed DOI 推理

這篇綜述指出,ChatGPT雖然不能直接判讀醫學影像,但在協助撰寫放射科報告、設計研究計畫和統計分析上表現不錯。由於取得容易、用途多元,對放射科醫師來說是很實用的工具,但在影像判讀方面還是有限制。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT在回答人工耳蝸相關問題時,約有八成以上的答案正確且一致,尤其在基本知識和技術問題表現最好。不過,針對手術流程的問題準確度較低。整體來說,ChatGPT對病人和醫療人員有很大幫助,但還是有些限制要留意。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT 4.0在建議第二型糖尿病藥物時,對單一藥物治療的建議最接近醫師,但治療越複雜一致性就越低。用少量範例提示能提升準確度,尤其在單一和雙重治療上,但三重治療還是不理想。總結來說,ChatGPT適合輔助簡單病例決策,但複雜治療還需加強。 相關文章 PubMed DOI 推理

Protein2Text 是一款能讀懂蛋白質序列並用文字回答相關問題的多模態大型語言模型。它改良 LLaVA 架構並加入重取樣機制,讓蛋白質序列更適合語言處理。經過 PubMed 資料集訓練,在多項測試中表現優於現有模型。研究也提醒現有評估方式有缺陷,呼籲改進。模型資源已全數開放。 相關文章 PubMed DOI 推理

這項研究比較Google、Bing、ChatGPT和Gemini的健康資訊,發現Google的資訊最可靠、品質最好,ChatGPT和Gemini在正確性和透明度較弱。四個平台的內容閱讀難度都偏高,超過公衛建議。結果顯示AI健康資訊需要更嚴格監督,也要加強民眾的資訊判讀能力。 相關文章 PubMed DOI 推理

這項研究比較五款主流AI(如ChatGPT-4、Grok-3等)回答靜脈曲張射頻消融術常見問題的表現。結果顯示,Grok-3在風險與術後照護問題上表現最好,ChatGPT-4則在入門問題最優。其他AI表現較弱。醫師對是否推薦病人用AI工具看法不一。總結來說,目前Grok-3和ChatGPT-4在這領域最可靠,但AI仍需持續評估。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4.0在回答大腸鏡檢查前常見問題時,內容準確且符合醫學指引,有潛力成為病人衛教的好幫手。不過,還需要更多實際測試和不同問題的驗證,才能確定它的實用性。 相關文章 PubMed DOI 推理