Harnessing full-text publications for deep insights into C. elegans and Drosophila biomaps.
利用全文出版物深入了解 C. elegans 和 Drosophila 生物圖譜。
BMC Genomics 2024-11-13
Role of visual information in multimodal large language model performance: an evaluation using the Japanese nuclear medicine board examination.
視覺信息在多模態大型語言模型表現中的角色:以日本核醫學考試為評估。
Ann Nucl Med 2024-11-13
Leveraging large language models to construct feedback from medical multiple-choice Questions.
利用大型語言模型構建醫學多選題的反饋。
Sci Rep 2024-11-13
這項研究探討如何利用大型語言模型(LLMs)生成內容為基礎的反饋,以提升Progress Test Medizin考試的反饋效果,超越單純的數字分數。研究比較了兩個受歡迎的LLM在生成相關見解上的表現,並調查醫療從業人員和教育工作者對LLM能力及其反饋實用性的看法。結果顯示兩者表現相似,其中一個付費的稍優,另一個則免費。參與者認為反饋相關,並願意未來使用LLM。研究結論指出,雖然LLM生成的反饋不完美,但仍可作為傳統數字反饋的有價值補充。
相關文章PubMedDOI
Neural networks for abstraction and reasoning.
抽象與推理的神經網絡。
Sci Rep 2024-11-13
Generative AI for Health Technology Assessment: Opportunities, Challenges, and Policy Considerations - an ISPOR Working Group Report.
健康技術評估中的生成式人工智慧:機會、挑戰與政策考量 - ISPOR 工作組報告。
Value Health 2024-11-13
How Soon Will Surgeons Become Mere Technicians? Chatbot Performance in Managing Clinical Scenarios.
外科醫生何時會成為單純的技術人員?聊天機器人在管理臨床情境中的表現。
J Thorac Cardiovasc Surg 2024-11-13
這項研究評估了四款熱門聊天機器人(ChatGPT-4、Bard、Perplexity 和 Claude 2)在與認證胸腔外科醫生進行考試的表現。結果顯示,聊天機器人的中位得分為1.06,而外科醫生為1.88,差異顯著(p=0.019)。外科醫生在大多數情境中表現優於聊天機器人,且聊天機器人的重大失誤率較高(0.50對0.19;p=0.016)。總體來看,研究認為聊天機器人的表現顯著不如外科醫生,提醒在臨床決策中應謹慎使用人工智慧。
相關文章PubMedDOI
MRI spine request form enhancement and auto protocoling using a secure institutional large language model.
使用安全機構大型語言模型的MRI脊椎請求表單增強與自動協議設定。
Spine J 2024-11-13
Oncointerpreter.ai enables interactive, personalized summarization of cancer diagnostics data.
Oncointerpreter.ai 使癌症診斷數據的互動式個性化摘要成為可能。
J Am Med Inform Assoc 2024-11-13
Assessing the Performance of ChatGPT and Bard/Gemini Against Radiologists for PI-RADS Classification Based on Prostate Multiparametric MRI Text Reports.
評估 ChatGPT 和 Bard/Gemini 在前列腺多參數 MRI 文字報告中對 PI-RADS 分類的表現,與放射科醫師進行比較。
Br J Radiol 2024-11-13