原始文章

這篇論文探討大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在數據提取和呈現的有效性,並與人類策展人比較。研究聚焦於小麥和大麥的遺傳特徵,使用36篇期刊文章的資料供GrainGenes數據庫使用。主要發現包括:GPT-4在分類手稿準確率達97%,有效提取80%特徵,並顯示人類與AI合作的潛力。儘管LLMs有其限制,但在生物數據提取上仍能提供顯著幫助,使用者需謹慎對待不準確性。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT-4在文獻回顧中的有效性,特別是在醫療法律背景下醫生與病人之間的關係。分析了由GPT-4生成的文獻回顧與人類研究者撰寫的回顧,並根據準確性、反應時間等標準進行比較。結果顯示,GPT-4在反應時間和知識廣度上表現優異,但在深入理解和情境相關性上較弱。研究強調,雖然GPT-4可作為初步工具,但仍需專家評估以提升學術成果的準確性和情境豐富性,特別是在醫學研究領域。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究探討了利用AI模型,特別是GPT-3、GPT-3.5和GPT-4,自動化污水流行病學文獻篩選,以提升綜合分析的效率。結果顯示,GPT-4在識別原始數據論文方面表現優異,精確度達0.96,召回率為1.00,超越目前的人工篩選標準。不過,這些模型在準確識別相關取樣地點上仍有挑戰,顯示人類監督的重要性。研究強調模型設計的謹慎性,建議AI輔助篩選能提升WBE研究效率,但仍需人類介入以確保準確性。 PubMed DOI

這項研究評估了GPT-4生成式AI工具aiChat在回答臨床問題的效果,並與醫學圖書館員的資料進行比較。研究團隊使用了圖書館員處理的臨床問題資料庫,並根據COSTAR框架設計標準化提示。結果顯示,aiChat在216個問題中,有83.3%被評為「正確」,但只有37%的參考文獻被確認有效。雖然AI表現出潛力,但許多參考文獻無法驗證,未評估新概念的準確性。作者建議這是系列研究的第一部分,探討AI如何融入醫學圖書館員的工作。 PubMed DOI

本研究評估了GPT-3.5和GPT-4在從非結構化臨床文本中提取資訊的效果。使用了病人特徵、病史和臨床檢測結果的資料,並透過簡單提示進行查詢。結果顯示,GPT-4在性別資訊提取上準確率達95%,優於GPT-3.5的70%;但在身體質量指數(BMI)方面,GPT-3.5的78%表現更佳。研究建議整合特定任務的定義進入提示中,以提升提取效果,並鼓勵專業人士設計有效提示,監控大型語言模型的表現。 PubMed DOI

您開發了一個大型語言模型(LLM)輔助的系統,專門用於健康技術評估(HTA)的系統性文獻回顧(SLR)。這個系統包含五個模組,從文獻搜尋到數據總結,並具有人機協作的設計,能根據LLM與人類審查者的意見調整PICOs標準。經過四組數據評估,系統在摘要篩選中表現優異,達到90%的敏感度和82的F1分數,顯示出與人類審查者的高一致性。這個AI輔助系統有潛力簡化SLR過程,降低時間和成本,並提升證據生成的準確性。 PubMed DOI

這項研究評估了自訂的GPT-4模型在醫學文獻數據提取和評估方面的表現,以協助系統性回顧。研究團隊創建了四個專門模型,針對研究特徵、結果、偏見評估及風險評估進行分析。結果顯示,GPT-4在數據提取的符合率達88.6%,且在2.5%的情況下準確性超過人類評審。在偏見評估方面,GPT-4的內部一致性公平至中等,外部一致性則優於人類評審者。整體而言,GPT-4在系統性回顧中展現出潛在的應用價值。 PubMed DOI

這項研究發現,GPT-4在整理小麥和大麥相關科學論文的遺傳資料時,準確率高達97%,擷取性狀和標記-性狀關聯的表現也比GPT-3.5好,錯誤率更低。GPT-4有時甚至能達到人類專家的96%水準。雖然還有改進空間,但未來在協助整理科學資料上很有潛力。 PubMed DOI

這項研究發現,GPT-4在從小麥和大麥論文中擷取遺傳性狀資料的表現相當優異,論文分類準確率高達97%,性狀擷取率有80%,標記-性狀關聯擷取率則為61%,錯誤率也比GPT-3.5低。雖然還有進步空間,但GPT-4已展現輔助生物資料庫整理的潛力。不過,使用時仍需留意資料可能不夠完整或正確。 PubMed DOI

這項研究比較GPT-4 Turbo和Elicit兩款AI工具,從33篇社區型漁業管理論文中擷取質性資料的表現。結果發現,AI在抓取情境性資料時表現不一,但有時能和人工審查者一樣好。整體來說,AI可協助文獻回顧,但還是需要人工把關,顯示AI有潛力但目前仍有限制。 PubMed DOI