LLM 相關三個月內文章 / 第 101 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討加拿大醫生提供醫療協助死亡(MAiD)服務時所面臨的情感與道德影響。訪談22位早期實施者發現,雖然MAiD情感上具挑戰性,但也能帶來成就感。醫生們感受到支持病人自主權和減輕痛苦的正面影響,但同時也面臨專業責任與個人感受的緊張。病人的感激和選擇對他們的經驗有正面貢獻,而不確定性和衝突則是挑戰。總體來看,提供MAiD對醫生而言是一種有意義的實踐,強調理解這些影響的重要性,以支持未來的規範和相關利益者。 相關文章 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在回答美國醫學執照考試(USMLE)風格的醫學倫理問題的表現,並與醫學知識問題進行比較。研究使用54個問題進行測試,結果顯示: - 兩個版本在醫學倫理問題上的表現不如知識問題。 - GPT-4在倫理問題的準確率比知識問題下降18%,GPT-3.5則下降7%(差異不顯著)。 - GPT-4在倫理問題上比GPT-3.5好22%,知識問題上好33%。 - GPT-4的回答變異性較低,顯示其穩定性較佳。 這些結果強調了持續評估ChatGPT在醫學教育,特別是醫學倫理領域的必要性。 相關文章 PubMed DOI

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 相關文章 PubMed DOI

這項研究評估了三個AI模型—ChatGPT、Bard和BingChat—在骨科住院醫師訓練考試中的表現。結果顯示,ChatGPT的準確率為46.3%,BingChat為52.4%,Bard為51.4%。排除圖像問題後,準確率有所提升,ChatGPT達49.1%,BingChat 53.5%,Bard 56.8%。相比之下,醫學生的表現為30.8%,而PGY1至PGY5住院醫師的準確率分別為53.1%到71.9%。整體來看,這些AI模型的表現與第一年住院醫師相似。 相關文章 PubMed DOI

這項研究評估了大型語言模型(LLMs)在解讀Lung-RADS以進行肺癌篩檢中的整合,強調它們在改善放射學實務方面的潛力。結果顯示,Claude 3 Opus和Perplexity的準確率達到了驚人的96%,在表現上超越了其他模型。 相關文章 PubMed DOI

這項研究探討了大型語言模型(LLMs),如GPT-3.5、GPT-4和Llama,在提取針灸穴位位置關係的有效性,特別是使用世界衛生組織的標準作為數據集。研究標註了五種穴位關係,並根據精確度、召回率和F1分數評估模型表現。結果顯示,微調後的GPT-3.5表現最佳,達到最高微平均F1分數0.92,顯示針灸領域的微調對關係提取的重要性。研究建議LLMs可增強針灸的臨床決策支持及教育資源,推進傳統醫學的資訊學發展。 相關文章 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 相關文章 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)在家庭醫學住院醫師訓練考試中的表現,使用了2022年的193道選擇題。結果顯示,ChatGPT 4.0 獲得167分(86.5%),標準化分數730,顯示出100%通過專科考試的機會。相比之下,ChatGPT 3.5 和 Google Bard 的得分較低,分別為66.3%和64.2%。只有ChatGPT 4.0 超過了住院醫師第三年的國家平均分68.4%。研究結果顯示,ChatGPT 4.0 可能是提供醫學概念解釋的有用工具。 相關文章 PubMed DOI

生成式人工智慧(AI)和大型語言模型在資訊處理上有重大進展,特別是在醫學教育中。雖然這些技術帶來機會,但也面臨挑戰,如生成錯誤資訊、偏見、實施成本高及數據安全問題。為了克服這些挑戰,建議改善AI訓練數據、建立驗證流程及遵循倫理指導。儘管如此,生成式AI仍有潛力提升醫學教育,包括個性化教學、模擬臨床情境、及時反饋和簡化評估等,未來可望為醫療專業人員提供更有效的學習體驗。 相關文章 PubMed DOI

這篇文章介紹了心理體系(Psychomatics),探討大型語言模型(LLMs)與人類在資訊處理上的差異。雖然LLMs在學習和語言使用上展現出類似的認知技能,但其基本過程卻截然不同。心理體系透過比較LLMs與生物系統,分析它們在獲取、記憶和利用資訊上的差異。LLMs能夠有效操控語言模式,但缺乏人類的情感和經驗,限制了對複雜關係的理解。最終,這個框架旨在深入了解語言、認知和智慧,並指導更具人性化的人工智慧系統發展。 相關文章 PubMed DOI