LLM 相關三個月內文章 / 第 93 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇文章探討了醫療領域中專業人士對 ChatGPT 等 AI 聊天機器人的依賴現象。雖然這些工具能提升效率和改善病人結果,但過度依賴可能帶來風險,如缺乏訓練和時間限制。文章強調在醫療中應維持以人為本的方法,確保整合 AI 時遵循倫理標準和病人安全。呼籲進一步研究和策略,以解決這種依賴性,並促進 AI 在醫療實踐中的平衡使用。 相關文章 PubMed DOI

人工智慧,特別是OpenAI的ChatGPT,已在腫瘤學領域帶來變革。本研究評估了ChatGPT與日本骨科醫學會2020年軟組織腫瘤指導方針的一致性,設計了22個臨床問題。結果顯示,ChatGPT的對應率達86%,其中兩個回應完全一致,17個部分一致。不過,在非典型脂肪瘤、滑膜肉瘤的圍手術化療及老年患者的治療策略上,則有三處不一致。研究強調,雖然ChatGPT能與臨床指導方針相符,但在醫療決策中仍需謹慎整合人工智慧,特別是在軟組織肉瘤的治療上。 相關文章 PubMed DOI

這項研究探討如何利用自然語言處理(NLP)和生成語言模型(GLMs)從肺癌患者的病理報告中提取關鍵資訊。研究目的是評估這些模型在提取病理階段數據的有效性,並考慮在資源有限的情況下使用較小型GLMs的可行性。研究團隊從首爾國立大學醫院收集報告,確定42個關鍵詞進行腫瘤-淋巴結(TN)分類,並與臨床專家建立黃金標準。經過訓練,Deductive Mistral-7B模型在資訊提取上表現最佳,準確率達92.24%,TN分類準確率為0.9876,顯示針對性訓練能提升模型性能,對臨床決策有潛在幫助。 相關文章 PubMed DOI

這項研究探討了使用ChatGPT為照顧者、青少年和兒童製作腎臟移植的教育手冊。研究者透過25個主題的標準化提示來確保內容一致性,並由專家小組評估手冊的準確性和可理解性。結果顯示,照顧者的可理解性得分為69%,青少年66%,兒童73%,且90.7%的手冊符合可行性標準。雖然手冊格式良好,但內容深度不足。總體而言,研究認為ChatGPT在生成病人教育材料上有潛力,但仍需改善內容的具體性和深度。 相關文章 PubMed DOI

這項研究探討學術外科中的性別偏見,分析AI平台ChatGPT生成的推薦信,對比男性與女性申請升遷為副教授的候選人。研究人員創作了六封推薦信,結果顯示針對女性的信件平均較短(298字),而男性的則較長(314字)。此外,女性的推薦信強調「同情心」等特質,男性則強調「尊重」和「技能」。這些結果顯示升遷過程中的性別偏見,建議在使用AI撰寫推薦信時需謹慎。 相關文章 PubMed DOI

使用像ChatGPT的人工智慧生成書面內容,讓我們對寫作中的「人聲」真實性和獨創性產生了重要疑問。測試顯示,ChatGPT能從多種輸入中創造出連貫且吸引人的文章,甚至能進行跨語言翻譯。雖然結果令人鼓舞,但也讓我們重新思考著作權及人工智慧在創意表達中的角色。這可能需要監管措施,以確保人類作家的獨特觀點和情感深度不被忽視。關於人工智慧在寫作中的角色討論才剛開始,考慮其對作家和讀者的影響非常重要。 相關文章 PubMed DOI

這項研究強調高品質神經心理學教育的重要性,並指出專業認證的障礙,如時間限制和專業知識不足。研究評估了兩個人工智慧語言模型,GPT-3.5和GPT-4.0,針對美國專業心理學委員會的臨床神經心理學問題。結果顯示,GPT-4.0的準確率達80.0%,明顯優於GPT-3.5的65.7%。在「評估」類別中,GPT-4.0得分73.4%,也高於GPT-3.5的58.6%。分析錯誤問題揭示了知識缺口,特別是在「神經退行性疾病」和「神經心理測試與解釋」方面。 相關文章 PubMed DOI

乳腺癌仍是全球健康的重要議題,亟需改善預測和管理復發的方法。本研究介紹了一個基於人工智慧的臨床決策支持系統(AI-CDSS),利用ChatGPT提升預測準確性。研究開發了一個機器學習模型,使用三軍總醫院2004至2016年的乳腺癌患者數據進行訓練和驗證。模型表現良好,曲線下面積(AUC)達0.80。AI-CDSS在臨床應用中顯示出個性化治療和增強患者參與的潛力,但仍需在不同臨床環境中進一步驗證其有效性。 相關文章 PubMed DOI

小分子的設計對於藥物發現和能源儲存等技術應用非常重要。隨著合成化學的發展,科學界開始利用數據驅動和機器學習方法來探索設計空間。雖然生成式機器學習在分子設計上有潛力,但訓練過程複雜,且生成有效分子不易。研究顯示,預訓練的大型語言模型(LLMs)如Claude 3 Opus能根據自然語言指示創建和修改分子,達到97%的有效生成率。這些發現顯示LLMs在分子設計上具備強大潛力。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在理解醫學研究論文的能力,特別是使用STROBE檢查表進行評估。研究比較了六個LLMs的表現,包括GPT-3.5-Turbo和GPT-4系列,與專業醫學教授的評估。分析了50篇來自PubMed的論文,結果顯示GPT-3.5-Turbo的準確率最高(66.9%),而Gemini Pro和GPT-4-0613的得分最低。研究強調LLMs在醫學文獻理解上的潛力,但也指出需進一步研究以克服現有限制。 相關文章 PubMed DOI