搜尋結果

使用者輸入 使用 ai model 評讀 risk of bias (時間範圍: all)
轉換句 AI model for assessing risk of bias in research, how to use AI to evaluate bias risk in studies, machine learning models for bias risk assessment
執行時間 6.62404 秒
花費Token 131
Assessing Risk of Bias Using ChatGPT-4 and Cochrane ROB2 Tool.
使用ChatGPT-4和Cochrane ROB2工具評估偏倚風險。 Med Sci Educ / / 2024-06-18

在醫學研究中,系統性回顧至關重要但耗時費力。ChatGPT-4和自動化改變了這情況,加快了過程並提高了可靠性。ChatGPT-4是智能助手,可快速評估研究中的偏見風險,改變了這領域,潛在挽救生命。雖需人類監督,但ChatGPT-4和自動化助力下,循證醫學前景光明。 PubMed DOI

Assessing the Decision-Making Capabilities of Artificial Intelligence Platforms as Institutional Review Board Members.
評估人工智慧平台作為機構審查委員會成員的決策能力。 J Empir Res Hum Res Ethics / / 2024-06-18

研究發現三個人工智慧平台可協助 IRB 起草 SOPs,提升審查效率。然而,仍需人類監督確保準確性。該研究測試了10個案例,顯示人工智慧在識別問題、提供指導和起草SOPs方面有潛力。 PubMed DOI

Benchmarking Human-AI Collaboration for Common Evidence Appraisal Tools.
人類與人工智慧合作的基準測試:針對常見證據評估工具。 J Clin Epidemiol / / 2024-09-14

這項研究探討大型語言模型(LLMs)在評估科學報告及臨床試驗方法學的有效性。研究比較了LLMs與人類評審的準確率,結果顯示人類的準確率高達89%至75%,而LLMs的準確率則較低,PRISMA介於63%到70%之間。雖然結合LLM的評分能提升準確率,但仍不及人類。研究指出,人類與AI合作能提高效率,特別是在較簡單的任務上,但對於複雜的評估則效果有限。 PubMed DOI

Using artificial intelligence to semi-automate trustworthiness assessment of randomized controlled trials: A case study.
使用人工智慧半自動化隨機對照試驗的可信度評估:案例研究。 J Clin Epidemiol / / 2025-01-19

隨機對照試驗(RCTs)對循證醫學非常重要,但有些試驗使用虛構數據,影響研究的完整性。本研究探討利用GPT-4驅動的ChatGPT來簡化RCT評估過程。透過TRACT檢查表,ChatGPT能有效處理RCT論文的PDF,並準確回答檢查項目,與人類評估者的一致性達84%。此外,ChatGPT在數據提取方面也表現出色,對三個表格達到100%準確率。未來將致力於提升ChatGPT在多個RCT中的應用,實現更高的數據捕捉準確性及自動化處理。 PubMed DOI

Zero- and few-shot prompting of generative large language models provides weak assessment of risk of bias in clinical trials.
生成大型語言模型的零-shot和少量提示對臨床試驗中的偏見風險評估提供了薄弱的依據。 Res Synth Methods / / 2024-08-23

這項研究探討了使用生成性大型語言模型(LLMs)來自動化醫學研究中的偏見風險評估(RoB)。研究發現,LLMs在新整理的測試數據集上的表現不如預期,F1分數僅在0.1到0.2之間,與簡單基準相似,顯示其在RoB2預測任務中的效能有限。即使在分解任務中,表現也不佳,遠低於傳統監督系統。這顯示目前的LLMs尚不適合作為RoB2評估的可靠工具。 PubMed DOI

The Sociodemographic Biases in Machine Learning Algorithms: A Biomedical Informatics Perspective.
機器學習演算法中的社會人口統計偏見:生物醫學資訊學觀點。 Life (Basel) / / 2024-06-27

機器學習在醫療決策中的風險評估中可能存在偏見,導致不公平。解決方法包括使用去偏見技術來減輕這些偏見,確保公平的醫療風險評估和決策。 PubMed DOI

Gender Bias in AI's Perception of Cardiovascular Risk.
AI 對心血管風險的性別偏見。 J Med Internet Res / / 2024-10-22

這項研究探討了GPT-4在評估冠狀動脈疾病風險時可能存在的性別偏見,使用了相同的臨床情境來比較男性和女性,其中一些人有精神疾病的共病情況。研究結果顯示,精神疾病的存在可能會影響GPT-4對男性和女性冠狀動脈疾病風險的評估方式。 PubMed DOI

Language models for data extraction and risk of bias assessment in complementary medicine.
補充醫學中數據提取和偏倚風險評估的語言模型。 NPJ Digit Med / / 2025-01-31

這項研究評估大型語言模型(LLMs)在107項補充醫學試驗中的數據提取及偏見風險評估的效果。僅用LLM的方法,如Moonshot-v1-128k和Claude-3.5-sonnet,準確率達95%以上;而LLM輔助的方法更佳,準確率可達97%以上。此外,LLM輔助的方法處理時間大幅縮短,分別只需14.7分鐘和5.9分鐘,傳統方法則需86.9分鐘和10.4分鐘。這些結果顯示,LLM結合人類專業知識能有效提升證據綜合的效率與準確性。 PubMed DOI

Influence of believed AI involvement on the perception of digital medical advice.
相信 AI 參與對數位醫療建議感知的影響。 Nat Med / / 2024-07-25

這項研究顯示,AI生成的醫療建議相比人類醫師的建議,存在明顯的偏見。在兩項研究中,2,280名參與者對不同來源的醫療建議進行評估,結果發現標示為AI或人類與AI結合的建議,被認為不如人類醫師的建議可靠且缺乏同理心。參與者對有AI參與的建議表現出較低的遵循意願,顯示出數位醫療建議中普遍存在反AI的偏見。這強調了未來研究需要探索減輕這種偏見的策略,以發揮AI在醫學領域的潛力。 PubMed DOI

Future Perspective of Risk Prediction in Aesthetic Surgery: Is Artificial Intelligence Reliable?
美容外科風險預測的未來展望:人工智慧可靠嗎? Aesthet Surg J / / 2024-06-28

人工智慧在醫學領域扮演關鍵角色,尤其在美容外科手術知情同意書的準確性和清晰度方面。研究發現,ChatGPT-4生成的材料受外科醫師青睞,因為其準確性和醫學信息。遵循ASPS建議簽署特定手術和一般知情同意書可預防併發症,確保患者清楚了解手術內容。 PubMed DOI