原始文章

最新的商業大型語言模型(像GPT-4o),在神經影像的中繼資料標註上,表現幾乎跟專業人員一樣好(zero-shot下得分0.91–0.97),錯誤率也差不多,很多分歧其實不是錯誤。這代表LLM很適合大規模自動標註。作者也建議大家建立並分享標註基準資料集,方便未來測試。 PubMed DOI


站上相關主題文章列表

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

ChatGPT這類大型語言模型,能幫助放射科研究人員在研究發想、文獻整理、設計、分析和寫作上更有效率。不過,也要注意錯誤、偏見和隱私等風險。透過像提示工程和模型優化等方法,可以提升使用成效,同時降低潛在風險。 PubMed DOI

這篇研究回顧了LLM在自動化科學文獻回顧的應用,分析了172篇論文。多數專案用ChatGPT或GPT系列,特別在文獻搜尋和資料擷取上表現比BERT好。不過,實際上很少有論文註明用LLM協助。雖然LLM處理數值資料還有些限制,但未來很可能會大幅改變文獻回顧的流程。 PubMed DOI

這篇論文提出用大型語言模型(像 GPT-4o)自動化醫療術語對應 SNOMED CT 等本體,建立 RDF 知識圖譜。研究比較六種系統,發現 GPT-4o 等現代 LLMs 在準確度和語意理解上都比傳統方法好很多,能大幅提升醫療知識圖譜的準確性和資料整合效率。 PubMed DOI

這篇文章說明大型語言模型(LLMs)能準確從臨床文本抓取數值資料,像是檢驗數據和生命徵象。作者提出新提示策略和方法,能有效降低錯誤,並在標註病歷上驗證成果,也證明這方法適用於大量器官捐贈者資料分析,有助提升器官採集資料的研究可用性。 PubMed

這項研究發現,單靠GPT-4提升肺癌資料集的metadata品質效果有限,但如果有結構化的領域知識(如範本)輔助,GPT-4表現會大幅提升。代表只要有知識庫支援,LLM自動整理metadata會更有效率。 PubMed

這篇研究發現,MRI 序列描述太多樣,難以辨識掃描類型。用 GPT-4o 這類大型語言模型自動分類,準確率超高(AUC 約 0.98),比傳統方法和 Llama 系列都好。總結來說,LLMs 很適合用來標準化和解讀 MRI metadata。 PubMed DOI

大型語言模型在辨識單一神經迷思時表現比人類好,但遇到實際應用情境時,通常不會主動質疑迷思,因為它們傾向迎合使用者。若明確要求糾正錯誤,效果才明顯提升。總之,除非特別指示,否則 LLMs 目前還不適合單靠來防堵教育現場的神經迷思。 PubMed DOI

這項研究發現,給大型語言模型(如GPT-4o和Llama-3.3-70B)明確的標註指引,能大幅提升它們從中風CT報告擷取重點的準確度,其中GPT-4o表現最好。結果強調,清楚的指引對提升醫療自動化資料擷取很重要。 PubMed DOI