LLM 相關三個月內文章 / 第 72 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了ChatGPT在科學文章審查中的有效性,並與傳統人類研究者的結果進行比較。研究人員對17篇有關醫療專業人員使用數位工具的文章進行系統性回顧,並透過特定提示引導ChatGPT分析。經過四次迭代後,ChatGPT的結果與原始回顧相當,但人類作者提供了更深入的分析和詮釋。雖然兩者在宏觀主題上相似,但人類驗證仍然重要,以確保研究的徹底性和深度。總體而言,ChatGPT在增強科學文獻產出方面展現潛力,但需依賴人類指導以達最佳效果。 相關文章 PubMed DOI

這項研究評估了10個大型語言模型(LLMs)與2位認證放射科醫生在分析胸部放射學案例的診斷表現。研究收集了124個案例,結果顯示Claude 3 Opus的診斷準確率最高,達70.29%,而放射科醫生的準確率則較低,分別為52.4%和41.1%。LLMs在特定案例中的表現較佳,顯示在適當醫療監督下,LLMs可能成為臨床決策的重要工具。 相關文章 PubMed DOI

診斷罕見兒科疾病相當具挑戰性,因為這些疾病的表現複雜。本研究評估了三種大型語言模型(LLMs)的診斷表現:GPT-4、Gemini Pro,以及一個整合Human Phenotype Ontology的自訂模型(GPT-4 HPO),針對61個罕見疾病進行分析。結果顯示,GPT-4的準確率為13.1%,而GPT-4 HPO和Gemini Pro均為8.2%。特別是GPT-4 HPO在鑑別診斷和疾病分類上表現較佳。這些結果顯示大型語言模型在診斷支持上有潛力,但仍需改進以便更好地融入臨床實踐。 相關文章 PubMed DOI

這項研究探討了潛在使用者對於支持身體活動的人工智慧數位助理的看法。透過六場線上焦點小組,共有45位成人參與,結果顯示大家對數位助理的協助感到興奮,並希望能收到通知,但對通知的頻率、時間和內容有不同意見。參與者也希望能自訂助理的個性和外觀。雖然他們認識到分享個人資訊的重要性,但在願意分享的程度上存在差異。總體來說,對這項技術的接受度高,但對自訂選項的需求也顯示出開發的挑戰。 相關文章 PubMed DOI

這項研究探討了ChatGPT在提供乳腺癌健康資訊的有效性,並與CDC網站進行比較。研究使用技術接受模型,強調易用性和有用性,並針對患者和公眾的常見問題進行質性分析,聚焦於定義、預防、診斷和治療四個主題。結果顯示,ChatGPT使用友好且提供準確資訊,來源可靠,能增強乳腺癌知識的獲取。不過,它缺乏問責性,回應也可能隨時間變化。總體而言,ChatGPT在傳播乳腺癌資訊和提升公眾認識方面顯示出潛力。 相關文章 PubMed DOI

人工智慧(AI)在自然語言處理的發展,特別是ChatGPT,已經改變了許多領域,包括知識評估。這種生成式AI能提升寫作效率,但也引發對資訊準確性和倫理的擔憂。在教育和科學寫作中,建立明確的使用指導方針至關重要。此外,AI對人際互動和睡眠的影響也需關注。為了有效整合AI,必須透過持續研究和公共討論來平衡其優缺點。 相關文章 PubMed DOI

對話式人工智慧的迅速發展引發了關於未來計算機教育的熱烈討論。有人擔心這會導致抄襲增加,也有人認為這種看法過於悲觀。本文探討了對話式人工智慧在計算機教育中的相關性,特別是軟體工程教育的應用及其對整體教育的影響。研究發現,產業中對話式人工智慧的快速採用與高等教育的整合之間存在脫節,顯示出對學生經驗及教學工具發展的進一步研究需求。 相關文章 PubMed DOI

多學科腫瘤委員會由各類醫療專家組成,對癌症患者的治療計畫至關重要,雖然面臨物流和財務挑戰,但仍能顯著提升生存率。本研究評估大型語言模型在頭頸部腫瘤委員會的推薦程序有效性,使用參數高效微調和上下文學習等方法。結果顯示,治療方案一致性達86%,醫學上可辯護的建議達98%。參數高效微調表現優於上下文學習,且較大商業模型通常效果更佳。建議增強數據集並納入更新指導方針,以提升模型在醫療決策中的準確性,值得進一步研究。 相關文章 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 相關文章 PubMed DOI

高風險自動化決策的解釋權引發了倫理與科技的討論。雖然解釋權對透明度和問責制很重要,但對依賴自動化系統的組織來說,成本問題也不容忽視。大型語言模型(LLMs)可能提供解決方案,幫助簡化解釋過程,減輕企業負擔。然而,使用LLMs也帶來準確性、偏見及依賴自動化系統的倫理擔憂。組織可能會表面合規,卻未真正參與決策。因此,部署LLMs時需謹慎,考量倫理影響及真正的問責需求。 相關文章 PubMed DOI