原始文章

這項研究評估了三本主要整形外科期刊中隨機對照試驗(RCT)摘要對CONSORT指導方針的遵循情況。研究人員利用GPT-4 AI技術分析了2010至2023年間的371篇RCT摘要,結果顯示平均遵循分數為10.05,顯示出多處需改進。主要問題包括試驗設計、參與者詳情、介入描述等方面的合規性不足。此外,試驗註冊和資金資訊也常缺失。研究強調AI在提升遵循評估的潛力,並呼籲研究者更應遵循CONSORT指導方針,以提升整形外科RCT報告的質量與透明度。 PubMed DOI


站上相關主題文章列表

研究使用OpenAI的GPT-4模型探討手部和手臂手術,專家評分顯示潛力,但仍需改進提示和培訓。儘管人工智慧有潛力改善護理和手術,但仍需人類整形外科醫師的重要性。 PubMed DOI

研究評估了GPT-4.0人工智慧模型對整形外科委員會考試問題的回應表現,發現在準確性、清晰度、完整性和簡潔性方面表現優秀。雖然處理複雜主題有限制,但在考試準備上有潛力。未來研究應致力於提升模型在複雜醫學主題的表現,以更好應用於醫學教育。 PubMed DOI

最新研究評估了ChatGPT在從隨機對照試驗(RCT)數據中產生科學摘要的表現,結果顯示ChatGPT的摘要雖然更易讀,但品質不如原始摘要。ChatGPT 3.5版和4版在遵循CONSORT-A檢查表方面表現較差。有必要進一步研究ChatGPT在醫學研究中的應用價值。 PubMed DOI

研究目標是開發文本分類模型,用來判斷隨機對照試驗報告是否符合 CONSORT 指南。研究者使用標註資料訓練模型,比較了不同方法後發現,微調 PubMedBERT 模型效果最好。數據擴增對模型有正面影響,尤其是使用 UMLS-EDA 效果較好。針對不同部分的特定模型,如方法部分,表現有所提升。總結來說,微調的 PubMedBERT 模型表現不錯,但仍有改進的空間,可提升期刊編輯工作流程及手稿品質。 PubMed DOI

研究比較人類審查員和AI檢測軟體在醫學領域摘要辨識的表現,結果顯示AI較佳但有限制。Grammarly指出原創摘要問題多於AI。建議未來醫學研究需明確AI使用指南,因AI普及需求增加。 PubMed DOI

人工智慧的進步帶來了像ChatGPT和Bard這樣的語言模型,可以產生類似人類寫作的文字。研究比較了它們在撰寫脊椎外科結構摘要方面的表現。結果發現,ChatGPT的摘要符合期刊指南,而Bard的字數更準確,且與人類撰寫的摘要更相似。人工智慧檢測難以區分人工智慧和人類生成的摘要,引發道德疑慮。使用這些工具時需謹慎。 PubMed DOI

這項研究旨在提升隨機對照試驗(RCT)出版物的報告品質,透過開發文本分類模型來檢視對CONSORT檢查表的遵循情況。研究使用了標註37個CONSORT項目的語料庫,訓練了多種模型,包括微調的PubMedBERT和BioGPT。主要發現顯示,微調的PubMedBERT模型在句子層級的微F1分數達0.71,文章層級為0.90。數據增強的影響有限,且針對方法的模型表現較佳。整體而言,這些模型能有效支持期刊編輯,改善RCT出版物的遵循情況。 PubMed DOI

這項研究比較了AI平台ChatGPT-4和Bard Gemini Advanced所生成的知情同意文件,與一名一年級口腔外科住院醫師撰寫的文件。經18位專家評估,結果顯示ChatGPT-4在準確性、完整性和可讀性上均優於Bard和人類撰寫的文件。具體來說,ChatGPT-4的得分在各項目中均為4,而Bard為3,人類同意書也為4。研究強調AI在知情同意過程中的潛力,但也指出需持續評估和整合患者反饋,以確保其在臨床上的有效性。 PubMed DOI

這項研究探討AI生成的知情同意書在美容整形手術中的有效性,並與整形外科醫生的版本進行比較。研究分析了ChatGPT-4生成的表格與美國整形外科醫師協會(ASPS)提供的表格,針對五種常見手術進行評估。主要發現包括:ChatGPT生成的表格較短且易讀,準確性和完整性與ASPS相當,整體印象略高。研究建議AI生成的同意書可減輕外科護理的文件製作負擔。 PubMed DOI

近年來,像ChatGPT這類人工智慧技術在整形外科的應用越來越普遍,特別是在評估美容手術效果方面。一項研究針對「Face Rating and Review AI」模型,專注於微創美容程序中的面部特徵,尤其是肉毒桿菌治療。研究分析了79篇2023至2024年的文章,顯示美國、澳洲和義大利在此領域的貢獻。使用Kaggle的23名患者數據,模型評估了客觀和主觀參數,結果顯示治療後面部特徵有顯著改善。研究強調倫理考量,未來需多樣化數據集以提升準確性。 PubMed DOI