原始文章

IRB審查常遇到標準不一、效率低落的問題。作者建議開發專屬IRB的AI語言模型,經微調後協助前置審查、分析和決策,提升效率與一致性。不過,AI必須在人工監督下使用,確保準確與透明。建議先做試點研究,評估實際成效。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)如ChatGPT正在改變放射學研究,簡化研究流程。放射學研究聯盟(RRA)成立工作小組,制定負責任使用LLM的指導方針。LLMs能自動化文獻回顧、生成研究問題、分析數據及撰寫手稿,提升研究效率。不過,對於缺乏人工智慧經驗的人來說,仍有挑戰。本評論提供有效利用LLMs的策略,強調提示工程的重要性,並探討維持科學誠信的倫理考量。結合人類專業與人工智慧,放射學研究人員可推動創新、擴展知識,改善病患照護。 PubMed DOI

這篇文章回顧了327篇來自Web of Science的文獻,探討ChatGPT在寫作上的應用。它指出ChatGPT能減輕寫作焦慮、提升效率,並協助生成科學論文,還能為研究者和學生提供反饋。不過,文章也提到數據準確性、倫理問題、抄襲風險和偏見等挑戰。作者身份驗證對學術寫作非常重要,以維持客觀性。文章呼籲未來研究應改善技術和政策,確保ChatGPT能支持倫理且可持續的學術寫作。 PubMed DOI

這項系統性回顧分析了137篇經過同行評審的研究,探討生成式人工智慧聊天機器人在健康建議上的表現。結果顯示,研究報告標準差異大,主要集中在外科、醫學和基層醫療。大部分研究針對治療、診斷或疾病預防,但幾乎全數(99.3%)使用的都是無法訪問的封閉源碼大型語言模型,且對其特徵描述不足。此外,多數研究未提及提示工程,只有少數討論倫理、法規及病人安全。這些結果顯示需改善報告標準,建議開發聊天機器人評估報告工具(CHART),以提升臨床評估與整合的效果。 PubMed DOI

同行評審對科學研究的質量至關重要,尤其在醫學領域,因為研究結果直接影響病人照護。隨著出版量增加,評審者面臨的壓力也增大,可能導致評審延遲和質量下降。大型語言模型(如ChatGPT)能簡化評審過程,提供高效支持。這篇評論探討了LLMs在同行評審中的應用,包括初步篩選、評審者匹配、反饋支持和語言審查等。然而,使用LLMs也需注意偏見和隱私問題,必須建立指導方針,確保其輔助而非取代人類專業知識,以維持評審標準。 PubMed DOI

大型語言模型像 ChatGPT 正在改變重症醫學,能自動化病歷、協助決策、個人化溝通,還能整理非結構化資料。不過,目前還有資訊正確性、倫理和醫師AI素養等挑戰。結合傳統機器學習可降低風險,導入時要謹慎並加強醫師訓練,才能提升照護品質。 PubMed DOI

大型語言模型在醫療文件撰寫和決策輔助上很有潛力,但因準確性、驗證、偏見和隱私等問題,現階段還不適合完全自動化臨床應用。未來要安全有效導入,需加強研究、訂定明確規範,並維持人工監督。 PubMed DOI

這篇研究發現,大型語言模型(LLMs)能自動化文獻篩選和資訊擷取,顯著提升數位健康科技(DHTs)相關隨機對照試驗(RCTs)文獻回顧的效率。不過,DHT在實際醫療應用上還有待克服一些挑戰。 PubMed

研究用兩個自訂GPT模型和人工審查者比較,評估系統性回顧的偏誤風險和參與程度。結果顯示,GPT模型的分類和人工類似,但在細節分布上有些不同,統計上沒顯著差異。雖然GPT有潛力,但還需要更多研究才能正式應用在科學實務上。 PubMed DOI

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI

AI,尤其是大型語言模型,正大幅改變醫療研究,但也帶來作者歸屬、透明度和濫用等倫理問題。各大組織強調AI應負責任且透明使用,並不承認聊天機器人為共同作者。未來AI應用需持續遵守倫理規範,審慎推動。 PubMed DOI