LLM 相關三個月內文章 / 第 116 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

本研究探討綠色科技創新(GTI)在中國廢舊電池回收(WPBR)中的角色,強調其對可持續資源管理及經濟增長的重要性。透過PSR-BN-GPT-4模型,研究發現: 1. GPT-4驅動的貝葉斯網絡在因果推理上優於傳統專家知識。 2. 中國WPBR產業的GTI水平偏低,僅有19%機率達到高水平。 3. 影響GTI的因素包括研發投資、綠色金融政策及政府採購政策。 4. 改善WPBR企業GTI的途徑為加強基礎設施及增加研發投資。 這些發現為政策制定者及企業提供了重要見解,助力電池回收的GTI推進。 相關文章 PubMed DOI

這項研究探討患者及陪伴者對傳統與AI生成的結腸癌患者教育材料(PEMs)的偏好。共35名參與者,平均年齡46歲,大多數為女性且擁有大學學位。結果顯示,51%偏好傳統PEMs,49%偏好AI生成的PEMs,兩者之間並無顯著差異。這顯示對這兩種材料的偏好相近,建議未來可進一步研究AI在生成有效PEMs中的潛力,因為AI可能結合傳統材料的優勢,並提高資源使用效率。 相關文章 PubMed DOI

大型語言模型(LLMs)有潛力改變醫療實務,但臨床醫師需注意相關風險,特別是幻覺風險—即模型生成的虛假資訊。這些幻覺可能因訓練數據問題或模型特性而產生,若不妥善管理,可能導致不準確的診斷和治療建議。為了降低這些風險,已開發出一套技術框架,旨在安全地將LLMs整合進臨床實務,並推動更廣泛的機構實施。 相關文章 PubMed DOI

腕管症候群(CTS)是一種常見病症,受到醫療界和大眾的重視。本研究分析了社交媒體平台上有關CTS的資訊質量,並與大型語言模型(LLMs)如ChatGPT和Google Bard的資訊進行比較。研究涵蓋80部YouTube和Instagram影片,發現LLMs提供的資訊質量顯著高於社交媒體影片。醫療專業人士創作的影片得分較高,但53.8%的影片由非醫療作者製作,顯示專業性不足。結論強調需增加醫療專業人士在社交媒體上的參與,以提升正確知識的傳播。 相關文章 PubMed DOI

這項研究評估了大型語言模型(LLM)聊天機器人對於常見病人問題(如下背痛)的回答準確性和可讀性。分析了30個問題,結果顯示120個回答中,55.8%準確,42.1%不準確,1.9%不清楚。治療和自我管理的回答較準確,風險因素則最不準確。可讀性平均得分為50.94,顯示文本相對困難。此外,70%-100%的回答都有健康建議的免責聲明。總體而言,雖然LLM聊天機器人有潛力,但準確性和可讀性差異可能影響病人理解。 相關文章 PubMed DOI

這項研究探討了GPT-4在放射科報告中檢測和修正錯誤的潛力,特別針對頭部CT掃描。隨著放射科醫師的工作壓力增加,GPT-4在錯誤檢測方面表現優異,解釋性錯誤敏感度達84%,事實性錯誤敏感度達89%。相比之下,人類讀者的表現較差,檢查時間也較長。雖然GPT-4在識別錯誤時有些假陽性,但仍顯示出其在減輕醫師負擔和提升準確度的潛力,值得在臨床實踐中進一步探索。 相關文章 PubMed DOI

將大型語言模型(LLMs)應用於醫療保健能顯著提升臨床流程與病人護理,但也面臨準確性、可及性、隱私及法規等挑戰。雖然專有模型如GPT-4和Claude 3受到關注,開源模型如Llama 3和LLaVA-Med對醫療機構和研究人員有獨特優勢,但因不熟悉和基礎設施不足,採用速度較慢。這篇文章提供放射學中實施開源LLMs的教程,包括文本生成、提示工程等實用範例,並比較開源與專有模型的優缺點。 相關文章 PubMed DOI

勃起功能障礙(ED)是影響男性性健康的常見問題。本研究評估了兩個AI聊天機器人,ChatGPT和Gemini,對ED相關問題的回答質量。研究發現,ChatGPT成功回答所有15個問題,而Gemini則未能回答兩個。質量評估顯示,Gemini的低質量回答較多,且兩位泌尿科醫生對ChatGPT的評分一致性為92%,Gemini則為95%。雖然這些AI能快速回應,但仍無法取代醫療專業人員的護理,需進一步改進。 相關文章 PubMed DOI

這項研究評估了OpenAI的GPT-4V和Google的Gemini Pro在日本國家牙科考試(JNDE)問題上的影像識別能力。分析了第116屆JNDE的160個問題,結果顯示GPT-4V的正確率為35.0%,而Gemini Pro為28.1%。雖然GPT-4V表現較佳,但差異不具統計意義。研究指出,隨著問題中圖片數量增加,正確率下降,顯示問題複雜性影響模型表現。這些結果顯示大型語言模型在牙科教育上的潛力,並強調技術進一步發展的必要性。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4o在臨床腫瘤學問題上的表現,並與傳統血液腫瘤學教科書進行比較。共評估37個與實體器官腫瘤相關的治療問題,結果顯示ChatGPT-4o的平均得分為7.83,優於教科書的7.0,且具統計意義(p < 0.01)。在10個案例中,ChatGPT-4o提供了更準確的資訊,並在26個案例中表現出更清晰的回答。研究強調定期更新的重要性,顯示ChatGPT-4o在腫瘤學的潛力,但需專家驗證以確保可靠性。 相關文章 PubMed DOI