原始文章

這項研究比較GPT-4 Turbo和Elicit兩款AI工具,從33篇社區型漁業管理論文中擷取質性資料的表現。結果發現,AI在抓取情境性資料時表現不一,但有時能和人工審查者一樣好。整體來說,AI可協助文獻回顧,但還是需要人工把關,顯示AI有潛力但目前仍有限制。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT-4在文獻回顧中的有效性,特別是在醫療法律背景下醫生與病人之間的關係。分析了由GPT-4生成的文獻回顧與人類研究者撰寫的回顧,並根據準確性、反應時間等標準進行比較。結果顯示,GPT-4在反應時間和知識廣度上表現優異,但在深入理解和情境相關性上較弱。研究強調,雖然GPT-4可作為初步工具,但仍需專家評估以提升學術成果的準確性和情境豐富性,特別是在醫學研究領域。 PubMed DOI

這項研究評估大型語言模型(LLMs)在從科學文獻中提取生態數據的表現,並與人類審稿人進行比較。結果顯示,LLMs提取相關數據的速度超過50倍,對於離散和類別數據的準確率超過90%。不過,它們在某些定量數據的提取上仍有困難。雖然LLMs能顯著提升建立大型生態數據庫的效率,但仍需額外的質量保證措施來確保數據的完整性。 PubMed DOI

這項研究探討了ChatGPT在科學文章審查中的有效性,並與傳統人類研究者的結果進行比較。研究人員對17篇有關醫療專業人員使用數位工具的文章進行系統性回顧,並透過特定提示引導ChatGPT分析。經過四次迭代後,ChatGPT的結果與原始回顧相當,但人類作者提供了更深入的分析和詮釋。雖然兩者在宏觀主題上相似,但人類驗證仍然重要,以確保研究的徹底性和深度。總體而言,ChatGPT在增強科學文獻產出方面展現潛力,但需依賴人類指導以達最佳效果。 PubMed DOI

這項研究探討了利用AI模型,特別是GPT-3、GPT-3.5和GPT-4,自動化污水流行病學文獻篩選,以提升綜合分析的效率。結果顯示,GPT-4在識別原始數據論文方面表現優異,精確度達0.96,召回率為1.00,超越目前的人工篩選標準。不過,這些模型在準確識別相關取樣地點上仍有挑戰,顯示人類監督的重要性。研究強調模型設計的謹慎性,建議AI輔助篩選能提升WBE研究效率,但仍需人類介入以確保準確性。 PubMed DOI

這篇論文探討大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在數據提取和呈現的有效性,並與人類策展人比較。研究聚焦於小麥和大麥的遺傳特徵,使用36篇期刊文章的資料供GrainGenes數據庫使用。主要發現包括:GPT-4在分類手稿準確率達97%,有效提取80%特徵,並顯示人類與AI合作的潛力。儘管LLMs有其限制,但在生物數據提取上仍能提供顯著幫助,使用者需謹慎對待不準確性。 PubMed DOI

這項研究評估了自訂的GPT-4模型在醫學文獻數據提取和評估方面的表現,以協助系統性回顧。研究團隊創建了四個專門模型,針對研究特徵、結果、偏見評估及風險評估進行分析。結果顯示,GPT-4在數據提取的符合率達88.6%,且在2.5%的情況下準確性超過人類評審。在偏見評估方面,GPT-4的內部一致性公平至中等,外部一致性則優於人類評審者。整體而言,GPT-4在系統性回顧中展現出潛在的應用價值。 PubMed DOI

環境科學中的系統性回顧面臨挑戰,因為不同學科的方法和術語不一致,影響證據篩選的透明度和可重複性。為了解決這個問題,我們開發了一個AI輔助的證據篩選框架,並以溪流糞便大腸桿菌濃度與土地使用的關係為案例。透過微調ChatGPT-3.5 Turbo模型,我們在篩選120篇文章時,發現AI與專家之間有顯著一致性,顯示出AI在篩選中的潛力。這個框架能提高篩選效率,減少成本,並為AI在環境研究中的應用提供新方向。 PubMed DOI

這項研究發現,GPT-4在整理小麥和大麥相關科學論文的遺傳資料時,準確率高達97%,擷取性狀和標記-性狀關聯的表現也比GPT-3.5好,錯誤率更低。GPT-4有時甚至能達到人類專家的96%水準。雖然還有改進空間,但未來在協助整理科學資料上很有潛力。 PubMed DOI

這篇論文發現,GPT-4在系統性文獻回顧時,能準確又有效地篩選相關文章標題和摘要。在近1.2萬筆資料測試下,GPT-4在特定門檻下可達100%召回率,人工篩選時間最多可省下75%。但還需更多主題和提示詞的研究,才能確認其穩定性。 PubMed DOI

這項研究發現,GPT-4在從小麥和大麥論文中擷取遺傳性狀資料的表現相當優異,論文分類準確率高達97%,性狀擷取率有80%,標記-性狀關聯擷取率則為61%,錯誤率也比GPT-3.5低。雖然還有進步空間,但GPT-4已展現輔助生物資料庫整理的潛力。不過,使用時仍需留意資料可能不夠完整或正確。 PubMed DOI