LLM 相關三個月內文章 / 第 54 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較了三層級的分診協議,包括分診護士、急診醫師和人工智慧模型(ChatGPT、Gemini 和 Pi),在2024年4月1日至4月7日於一所三級醫療機構的急診部門進行,分析了500名病人的數據。結果顯示,只有23.8%的病人獲得一致分類,分診護士對6.4%的病人過度分診,且人工智慧模型的分診不足率偏高,特別是ChatGPT在黃碼和紅碼病人中分診不足達26.5%和42.6%。結論指出,急診環境中不應僅依賴人工智慧進行分診。 相關文章 PubMed DOI

這項研究比較了ChatGPT-4和Google Bard生成的白內障手術病人教育材料,共整理了98個常見問題,分為病情、手術準備和手術後恢復三個領域。結果顯示,Google Bard的回答較為複雜,但ChatGPT-4在可理解性上表現更佳,特別是在手術準備和恢復方面。兩者在可行性上無顯著差異,且均未提供危險信息。研究建議未來應納入真實病人的意見,以提升材料的相關性。 相關文章 PubMed DOI

命名實體識別(NER)模型在從非結構化醫療文本中提取結構化資訊方面非常重要,能識別疾病和治療等實體,對臨床決策和研究有幫助。近期基於BERT的深度學習進展提升了NER能力,但醫學術語的複雜性使得模型在不同數據集上的表現不一。本研究評估了七種NER模型在醫療文本分析中的表現,特別關注複雜術語和宏觀因素對準確性的影響。結果顯示,經微調的BERT在某些數據集上表現最佳,並強調了針對性優化的必要性,以增強臨床決策和開發更有效的醫療NER模型。 相關文章 PubMed DOI

這項研究評估了ChatGPT對全肩關節置換術(TSA)常見病人問題的回答質量。研究人員整理了15個問題,並直接詢問ChatGPT,三位認證的骨科醫生用A-F評分系統對其回答進行評分。結果顯示,ChatGPT的整體評分為B-,在術前和術後問題上也相似。雖然它提供了合理建議,並承認自身限制,但常常忽略最新研究,且回答有時超出問題範疇。研究指出,人工智慧可作為病人初步詢問的工具,但無法取代骨科醫生的專業知識。 相關文章 PubMed DOI

隨著大型語言模型和人工智慧工具在健康專業入學申請中的使用增加,帶來了機會與倫理挑戰。研究回顧了1706篇文獻,最終納入18篇,探討了AI在篩選申請者、生成個人陳述、偵測AI生成內容及推薦信分析中的應用。雖然AI能提升效率,但亟需明確指導方針來應對倫理問題,特別是在護理教育方面,還需進一步研究。 相關文章 PubMed DOI

將臨床知識融入人工智慧(AI)系統,分析非結構化的臨床對話,對提升可解釋性及心理健康從業人員(MHPs)的信任非常重要。本研究針對AI可解釋性挑戰,利用未開發的心理健康數據,特別是憂鬱症相關內容。 我們開發了一種名為PSAT的新架構,將臨床實踐指導方針納入注意力機制,並透過SNOMED-CT轉換為機器可讀格式,生成易於理解的解釋。評估結果顯示,PSAT在分類準確性及提供有意義解釋方面表現優異,對心理健康應用中的AI篩檢工具具有重要意義。 相關文章 PubMed DOI

這篇論文探討如何透過科技實現「資訊民主化」,特別是生成式人工智慧(GenAI)在心理健康領域的應用。它回顧了資訊獲取的歷史變遷,指出GenAI技術的出現為心理健康資源提供了更好的獲取途徑,並可能改變醫療提供者與病人之間的關係。不過,將GenAI整合進心理健康領域也帶來了倫理問題和風險。論文提出了一個策略性問卷,評估AI應用的好處與風險,並主張心理健康專業人員應參與技術開發,以確保GenAI的進展既有效又符合倫理,並以病人需求為中心。 相關文章 PubMed DOI

這項研究探討了使用GPT-4和自訂GPT代理來預先分類碟擴散結果,以識別革蘭氏陰性菌中的β-內酰胺酶產生。研究分析了225個分離株,並將其分類為不同抗藥機制。結果顯示,微生物學家的診斷準確率高達94.4%,而自訂GPT代理的符合率為81.9%,且未經自訂的GPT-4表現不佳,僅19.6%準確。這顯示AI在抗微生物抗藥性診斷中有潛力,但仍需人類專業知識以確保準確性和效率。 相關文章 PubMed DOI

這項質性研究探討了健康專業人員對HIV血清差異的社會表徵,使用社會表徵理論及Jean Claude Abric的概念。研究在2020年10月至12月於巴西東北部進行,51位專業人員參與,透過自由聯想訪談及Iramuteq軟體分析。結果顯示,中央核心特徵與污名化及無知有關,關鍵詞包括偏見、恐懼等,顯示健康專業人員的理解受到負面影響,可能妨礙照護並加劇污名化。研究強調需加強專業人員的教育與訓練,以改善知識與實踐,促進更好的照護。 相關文章 PubMed DOI

這項研究評估了四款AI聊天機器人(Bing、ChatGPT 3.5、Google Gemini和Claude AI)在回答牙齒創傷相關問題的表現。研究團隊最初設計了30個問題,經專家精煉後選出20個,並向每個聊天機器人提出三次,共收集240個回應。使用5分制進行評分,結果顯示Claude AI在有效性和可靠性上表現最佳,而Bing的可靠性最低。研究強調了制定指導方針以確保AI提供準確醫療資訊的重要性。 相關文章 PubMed DOI