LLM 相關三個月內文章 / 第 91 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

AI和機器學習在肩膀和肘部手術等領域的應用迅速增加,顯示出提升診斷準確性和降低成本的潛力。不過,使用AI進行研究和寫作也帶來了內容準確性、版權和抄襲等問題的擔憂。研究指出,即使是資深外科醫生也難以辨識AI生成的內容,而AI檢測工具的效果較好。因此,在學術工作中整合AI時,必須謹慎,以維護學術的完整性和可靠性。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4,在數位影像與醫學通訊(DICOM)伺服器中,根據美國醫學物理學會TG-263標準重新標記結構名稱的應用。研究針對前列腺、頭頸部和胸腔三個疾病部位,選取150名患者進行調整,50名患者用於評估。結果顯示高準確率,前列腺97.2%、頭頸部98.3%和胸腔97.1%。研究顯示GPT-4能有效標準化放射腫瘤學中的結構名稱,顯示其在該領域的潛力。 相關文章 PubMed DOI

這項研究探討了人們對生成式人工智慧的看法,特別是在社會和個人挑戰建議方面。共招募3,308名美國參與者,結果顯示: 1. **能力認知**:當知道建議來自AI時,人們常會貶低AI的能力,但不會貶低建議內容。 2. **挑戰建議**:在社會和個人挑戰中,這種貶低現象一致出現。 3. **偏好AI建議**:若過去對AI建議有正面經驗,個人更傾向於尋求AI的建議。 這反映出人們對AI的理解和信任,尤其在良好互動後。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 相關文章 PubMed DOI

這項研究評估大型語言模型(LLMs)在從科學文獻中提取生態數據的表現,並與人類審稿人進行比較。結果顯示,LLMs提取相關數據的速度超過50倍,對於離散和類別數據的準確率超過90%。不過,它們在某些定量數據的提取上仍有困難。雖然LLMs能顯著提升建立大型生態數據庫的效率,但仍需額外的質量保證措施來確保數據的完整性。 相關文章 PubMed DOI

這項研究評估了ChatGPT 4.0對25個有關髖關節鏡手術的病人問題的回答準確性,並由兩位專業的骨科運動醫學外科醫生進行評分。結果顯示,20個回答被評為「優秀」,2個則是「滿意但需少量澄清」,沒有回答被評為「中等」或「需大量澄清」。整體來看,ChatGPT 4.0在病人教育方面顯示出潛力,尤其在骨科醫生的指導下。這項研究也考量到病人對聊天機器人使用的增加。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4在回答有關前交叉韌帶(ACL)手術的十大常見問題的準確性。研究人員從運動醫學專科機構收集問題,並由兩位專科外科醫生使用李克特量表進行評分。結果顯示,有五個回答被評為「完全準確」,另外三個至少獲得一位醫生的肯定。評分者之間的協議程度為中等,權重卡帕值為0.57,且80%的回答在時間上保持一致。研究指出,ChatGPT可作為提供ACL手術一般資訊的工具,但不應取代病人與外科醫生的直接溝通。 相關文章 PubMed DOI

這項研究探討了使用ChatGPT撰寫醫學案例報告的潛力,特別針對一個理論案例,涉及扭轉卵巢囊腫的囊腫抽吸。作者生成了四篇手稿,前三篇由ChatGPT根據不同細節撰寫,第四篇則是人類撰寫。分析顯示,隨著細節增加,手稿質量和可讀性提升,但人類手稿包含的個人經驗和見解是AI無法捕捉的。研究引發了對醫學寫作中「人性觸感」的討論,並建議進一步研究AI的有效性與適當性,鼓勵醫療專業人員思考使用ChatGPT的看法。 相關文章 PubMed DOI

在這個迷你系列的第二部分,我們探討了多種機器學習工具,這些工具能自動從龐大的獸醫臨床數據中提取資訊,像是小動物獸醫監測網絡(SAVSNET)和VetCompass的資料。由於數據量龐大,手動閱讀不切實際,而傳統文本挖掘方法也常因臨床筆記的複雜性而無法應對。 我們介紹了從簡單模型到先進語言模型的各種技術,特別是語言模型在記錄標註和主題識別中的應用。隨著模型的進步,研究人員與臨床醫生的合作變得更重要,以確保結果的可解釋性,增強對結論的信心。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4在整形外科在職考試中的表現,並與醫學住院醫師及ChatGPT-3.5進行比較。分析了2018至2023年的1,292道考題,ChatGPT-4的正確率為74.4%,在核心外科原則上表現最佳(79.1%),顱顏面外科則最低(69.1%)。它的排名介於第61到第97百分位,明顯超越了ChatGPT-3.5的55.5%正確率和第23百分位。這顯示ChatGPT-4的知識已超越獨立住院醫師,達到第六年綜合住院醫師的水準。 相關文章 PubMed DOI