原始文章

這項研究探討了利用AI模型,特別是GPT-3、GPT-3.5和GPT-4,自動化污水流行病學文獻篩選,以提升綜合分析的效率。結果顯示,GPT-4在識別原始數據論文方面表現優異,精確度達0.96,召回率為1.00,超越目前的人工篩選標準。不過,這些模型在準確識別相關取樣地點上仍有挑戰,顯示人類監督的重要性。研究強調模型設計的謹慎性,建議AI輔助篩選能提升WBE研究效率,但仍需人類介入以確保準確性。 PubMed DOI


站上相關主題文章列表

這項研究顯示,GPT-4在去識別化臨床筆記和生成合成數據方面,比GPT-3.5更有效,對於保護病人隱私非常重要。透過API存取和零樣本提示,GPT-4的表現相當出色,精確度達0.9925,召回率0.8318,F1分數0.8973,準確率0.9911。這些結果顯示,GPT-4能顯著提升臨床數據的安全性,並促進其在研究中的應用,為醫療數據管理中平衡數據效用與隱私樹立了新標準。 PubMed DOI

這篇論文探討大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在數據提取和呈現的有效性,並與人類策展人比較。研究聚焦於小麥和大麥的遺傳特徵,使用36篇期刊文章的資料供GrainGenes數據庫使用。主要發現包括:GPT-4在分類手稿準確率達97%,有效提取80%特徵,並顯示人類與AI合作的潛力。儘管LLMs有其限制,但在生物數據提取上仍能提供顯著幫助,使用者需謹慎對待不準確性。 PubMed DOI

隨著微塑料對健康影響的關注增加,對高品質數據的需求也隨之上升。目前的質量保證和控制(QA/QC)框架因手動評估耗時且不一致而面臨挑戰。本研究探討利用人工智慧(AI),特別是大型語言模型(LLMs),如ChatGPT和Gemini,來提升微塑料研究中的QA/QC過程。研究結果顯示,AI能有效提取信息並評估研究可靠性,顯示出在環境科學中標準化微塑料風險評估的潛力。 PubMed DOI

這項研究評估了兩個AI語言模型,GPT-3.5和GPT-4,在小兒腎臟科臨床資訊的有效性。40位小兒腎臟科專家對這些模型進行了評分,結果顯示兩者表現相似,GPT-4稍微高一些,但差異不顯著。分析顯示,模型的內部一致性較低,專家經驗與評價無明顯相關。研究指出,這些AI模型雖能提供基本資訊,但未能解決小兒腎臟科的特定挑戰,強調專業訓練和人類監督的重要性。 PubMed DOI

這項研究顯示,GPT-4 Turbo在特異性上表現優於GPT-3.5 Turbo(0.98對0.51),而敏感性相似(0.85對0.83)。不過,GPT-3.5 Turbo的速度明顯較快,處理100篇研究只需0.9分鐘,GPT-4 Turbo則需1.6分鐘。這結果顯示,雖然GPT-4 Turbo在引用篩選的準確性上更佳,但GPT-3.5 Turbo在速度上更具優勢,顯示大型語言模型在文獻選擇上有潛力。 PubMed DOI

這項研究評估了自訂的GPT-4模型在醫學文獻數據提取和評估方面的表現,以協助系統性回顧。研究團隊創建了四個專門模型,針對研究特徵、結果、偏見評估及風險評估進行分析。結果顯示,GPT-4在數據提取的符合率達88.6%,且在2.5%的情況下準確性超過人類評審。在偏見評估方面,GPT-4的內部一致性公平至中等,外部一致性則優於人類評審者。整體而言,GPT-4在系統性回顧中展現出潛在的應用價值。 PubMed DOI

環境科學中的系統性回顧面臨挑戰,因為不同學科的方法和術語不一致,影響證據篩選的透明度和可重複性。為了解決這個問題,我們開發了一個AI輔助的證據篩選框架,並以溪流糞便大腸桿菌濃度與土地使用的關係為案例。透過微調ChatGPT-3.5 Turbo模型,我們在篩選120篇文章時,發現AI與專家之間有顯著一致性,顯示出AI在篩選中的潛力。這個框架能提高篩選效率,減少成本,並為AI在環境研究中的應用提供新方向。 PubMed DOI

這項研究發現,GPT-4在整理小麥和大麥相關科學論文的遺傳資料時,準確率高達97%,擷取性狀和標記-性狀關聯的表現也比GPT-3.5好,錯誤率更低。GPT-4有時甚至能達到人類專家的96%水準。雖然還有改進空間,但未來在協助整理科學資料上很有潛力。 PubMed DOI

這篇論文發現,GPT-4在系統性文獻回顧時,能準確又有效地篩選相關文章標題和摘要。在近1.2萬筆資料測試下,GPT-4在特定門檻下可達100%召回率,人工篩選時間最多可省下75%。但還需更多主題和提示詞的研究,才能確認其穩定性。 PubMed DOI

這項研究發現,GPT-4在協助篩選食道切除術併發症危險因子的文獻時,和人工審查者的判斷一致率高,尤其在標準較寬鬆時表現更好。雖然標準嚴格時準確率會下降,但GPT-4仍能有效簡化流程並提供決策依據。未來建議進一步比較不同模型及應用於其他審查步驟。 PubMed DOI