LLM 相關三個月內文章 / 第 114 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了ChatGPT在研究中的雙重性,分析了2022至2023年間57篇相關文章,指出其對研究的八個關鍵影響面向,包括研究問題、文獻回顧、研究設計等。研究強調,儘管ChatGPT有其限制,但整合這類人工智慧技術進研究實踐仍具重大潛力。研究呼籲政策制定者和教育領導者制定有效策略,以充分發揮ChatGPT的研究能力。 相關文章 PubMed DOI

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 相關文章 PubMed DOI

這項研究探討了人工智慧模型,特別是ChatGPT和Perplexity AI,在評估聲音病理的有效性。研究比較了這些AI的聲音障礙評估與專家聽覺評估,分析了50名成人聲音障礙患者的資料。結果顯示,AI評估與專家評估之間並無顯著一致性(Cohen's Kappa, p = 0.429),而AI模型之間的診斷則有低度正相關(r_s = 0.30, p = 0.03)。總體來看,研究指出人工智慧可能不適合作為聲音護理團隊評估聲音障礙的工具。 相關文章 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-3.5、ChatGPT-4 和 Google Bard 在製作小兒白內障病人教育材料的效果。研究使用三個提示來測試模型的表現,並根據質量、可理解性、準確性和可讀性進行評估。結果顯示,所有模型的回應質量都很高,但沒有一個被認為是可行的。特別是,ChatGPT-4 生成的內容最易讀,並能有效將材料調整至六年級的閱讀水平。總體來看,ChatGPT-4 是生成高質量病人教育材料的有效工具。 相關文章 PubMed DOI

這項研究評估了幾個商業可用的大型語言模型(LLMs)在提供治療建議時,與美國骨科醫學會(AAOS)針對肩袖撕裂和前交叉韌帶(ACL)損傷的臨床指導方針(CPGs)的符合度。分析了48項CPGs,結果顯示70.3%的回應與指導方針一致,ChatGPT-4的符合率最高(79.2%),而Mistral-7B最低(58.3%)。研究指出,雖然LLMs能提供一致建議,但缺乏透明的資料來源,限制了其作為臨床支持工具的可靠性,未來應擴大評估範圍以減少偏見。 相關文章 PubMed DOI

這篇論文深入分析了AI在藥物開發中的進展,特別是針對小分子、RNA和抗體的應用。它探討了AI如何融入藥物開發流程,並回顧了目前臨床試驗中的藥物。論文指出,至今尚無AI設計的藥物獲得監管機構批准,並建議利用大型語言模型和擴散模型來克服這一挑戰。總體而言,論文強調了AI在藥物發現中的潛力,同時也討論了這個快速發展領域的挑戰與未來機會。 相關文章 PubMed DOI

這項研究探討了先進計算方法在蛋白質骨架設計與修改上的創新應用,對於蛋白質功能及疾病治療影響重大。研究團隊開發了名為PB-GPT的模型,透過代碼本量化和壓縮字典,將蛋白質骨架結構轉換為獨特編碼格式。該模型在多個數據集上訓練與評估,顯示出生成複雜且真實蛋白質骨架的能力,模仿自然蛋白質結構,顯示大型語言模型在蛋白質結構設計上的潛力。 相關文章 PubMed DOI

這項研究探討了人工智慧聊天機器人ChatGPT在麻醉學領域回應病人問題的效果。研究將ChatGPT的回應與認證麻醉醫師的回應進行比較,使用100個虛構臨床情境的麻醉問題。結果顯示,ChatGPT的整體質量評分與麻醉醫師相似,但同理心評分較高。不過,ChatGPT在科學共識一致性上表現不佳,且潛在傷害的比率較高。研究結論指出,雖然ChatGPT在醫療領域有潛力,但仍需改進以降低風險,並建議進一步研究其在複雜臨床情境中的有效性。 相關文章 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Gemini,在提供小兒骨科疾病建議的可靠性,並參考了美國骨科醫學會(AAOS)的指導方針。結果顯示,ChatGPT和Gemini的符合率分別為67%和69%,差異不大。值得注意的是,ChatGPT沒有引用任何研究,而Gemini則參考了16項研究,但大多數存在錯誤或不一致。總體來看,這些模型雖然在某程度上符合指導方針,但仍有許多中立或不正確的陳述,顯示醫療AI模型需改進與提高透明度。 相關文章 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在美國胸外科醫學會的胸外科自我教育與自我評估(SESATS)XIII題庫上的表現。測試的模型包括GPT-3.5、GPT-4、Med-PaLM 2和Claude 2。結果顯示,GPT-4的正確回答比例達87.0%,明顯優於GPT-3.5的51.8%。GPT-4在各子專科的準確率介於70.0%到90.0%之間,顯示出LLMs在外科教育和訓練方面的潛力,對醫學教育和病人護理有美好的前景。 相關文章 PubMed DOI