LLM 相關三個月內文章 / 第 128 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

急性髖部骨折對公共健康,特別是老年人,造成重大挑戰。本研究評估ChatGPT-4.0在提供骨折治療建議的準確性,並與美國骨科醫學會(AAOS)的標準進行比較。結果顯示,ChatGPT-4.0的評分與AAOS有正相關,但在長髖髓釘的評估上存在顯著差異,且高估了全髖關節置換等治療的適當性。總體而言,ChatGPT-4.0在急性髖部骨折治療建議上不完全可靠,需進一步改進以符合醫療指導方針,提升病人治療效果。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4生成的臨床小案例在醫學教育中的效用與準確性。調查於2024年1月進行,71位專注於一般內科的日本醫師評估了18個日文AI醫療案例。結果顯示,資訊質量和準確性獲得滿意評分,但在內容質量和相關性上存在顯著變異。參與者建議改進身體檢查結果的生成、使用更自然的語言及提高術語準確性。總體而言,研究認為ChatGPT-4在醫學教育中有潛力,但仍需加強細節準確性和真實性,並強調專家監督的重要性。 相關文章 PubMed DOI

這項研究評估了健康照護學生對 ChatGPT 的使用情況,重點在於他們的認知、知識感知、風險感知、倫理考量及對教育中使用 ChatGPT 的態度。研究於2023年5至6月進行,涵蓋2,661名來自美洲各健康照護領域的學生。結果顯示,42.99%的參與者對 ChatGPT 不熟悉,知識中位數得分較低。大多數受訪者認為 ChatGPT 在倫理上是中立的,並對其在健康照護教育中的潛在益處持正面態度。研究建議醫學教育者應將聊天機器人技術納入健康照護教育,因學生對進一步了解此技術表現出濃厚興趣。 相關文章 PubMed DOI

這項研究旨在改善黑人順性別女性在HIV暴露前預防(PrEP)使用的情況。儘管PrEP效果顯著,但這群人卻面臨護理不足、醫療不信任和污名化等障礙。護理師在推廣PrEP方面扮演重要角色,但也面臨資源不足的挑戰。研究計畫將分為探索、開發和評估三個階段,並透過AI聊天機器人促進溝通,確保數據隱私。此倡議希望減少PrEP護理障礙,創造無污名環境,並解決健康差異問題。研究結果可能成為解決健康不平等的可擴展模型。 相關文章 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4在從微型交通事故的臨床筆記中提取頭盔使用狀態的效果。研究人員比較了文本搜尋和LLM兩種方法,發現低、中等詳細程度的提示下,兩者一致性中等,而高詳細程度則幾乎完美,但耗時較長。LLM在有效性上表現良好,但在可靠性和一致性上仍有問題,經常出現錯誤。總體來說,雖然LLM在信息提取上效率高,但在臨床應用中仍面臨挑戰。 相關文章 PubMed DOI

這項研究比較了兩個人工智慧模型,ChatGPT-4.0 和 Llama 2,在甲狀腺癌診斷與治療的臨床決策輔助上。研究者根據NCCN指引,從58頁中提出167個問題,並標準化詢問這兩個模型。結果顯示,兩者在整體得分和準確性上並無顯著差異,顯示出有限但相似的能力來協助甲狀腺癌的管理。 相關文章 PubMed DOI

手術部位感染(SSIs)在脊椎手術中常見且成本高昂,因此識別風險因素及預防策略非常重要。本研究探討了使用GPT-4這個先進的人工智慧工具來管理脊椎手術中的SSIs。研究顯示,GPT-4在制定個性化治療計劃、增強病人教育及改善感染預測模型方面表現優異,但在微調抗生素治療上仍有挑戰。總體而言,GPT-4在推進SSIs管理上顯示潛力,強調了進一步發展及臨床整合的必要性。 相關文章 PubMed DOI

人工智慧(AI)如ChatGPT的迅速發展,引起醫療和教育界的關注。雖然AI在日常醫療任務和影像評估上展現潛力,但其依賴的模式識別演算法也帶來挑戰。這篇評論探討AI對醫學教育的影響,特別是在批判性思維和臨床推理的培養上。將比較假設演繹推理與歸納推理,並討論認知偏見對診斷錯誤的影響。透過案例分析,指出AI在醫療中的局限性,並建議未來醫學教育應重視批判性思維與臨床推理。 相關文章 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 相關文章 PubMed DOI

這項研究評估了ChatGPT3.5在回答2019年嚴重急性胰臟炎指引的臨床問題時的準確性。結果顯示,該模型在英語中的準確率為71%,而中文則為59%,但這差異並不顯著(P = 0.203)。此外,簡答題的準確率(76%)高於是非題(60%),但同樣沒有顯著性(P = 0.405)。雖然這些結果顯示ChatGPT3.5可能對臨床醫生有幫助,但仍需謹慎使用,避免過度依賴。 相關文章 PubMed DOI