原始文章

這項研究探討了故事回憶評分中的個體差異,特別是中心細節和周邊細節的區分是否必要,以及評分是否能自動化。結果顯示,中心記憶和周邊記憶的得分高度相關,單一得分可能足夠評估記憶表現。此外,使用BERTScore和GPT-4的自動評分方法與人工評分之間有強相關性,顯示自動化評分的潛力。不過,自動化方法的得分分佈存在不一致,需進一步研究。總體而言,研究建議心理學家可在保持準確性的同時簡化評分方式。 PubMed DOI


站上相關主題文章列表

研究發現人們在編故事時會受生活經驗影響,並提出「sequentiality」標準來評估事件流程。比較自傳和想像故事後發現,想像故事的sequentiality較高。自傳故事在幾個月後重新講述時,sequentiality會增加。研究指出,較低的sequentiality與更多主要事件相關,建議使用sequentiality工具研究記憶和推理對語言生成的影響。 PubMed DOI

研究評估了ChatGPT在使用不同評分系統(如GCS、ICH和H&H)來評估患者的神經檢查能力。結果顯示,ChatGPT在計算分數方面有潛力,但處理複雜或模糊描述時準確性有限。總的來說,在醫學領域中,ChatGPT展現了一定的應用價值。 PubMed DOI

研究人員使用自傳式訪談分析自傳記憶,發現手動評分耗時。他們開發了一種新方法,利用自然語言處理自動評分回應,表現優異。為了方便其他研究人員,提供了Colab筆記本。 PubMed DOI

生成式人工智慧目前不太用於文本分析,但在評估情緒上有潛力。一研究比較了ChatGPT和LIWC工具的分析結果,發現兩者關聯較小,ChatGPT在22%情況下計算LIWC分析時出錯。這顯示大型語言模型處理詞語和數字可能不可靠,使用時要謹慎。 PubMed DOI

線上文章提供價值洞察,手動編碼可靠但限制大數據分析。自動文本分析近似人評估,大型語言模型如GPT-4表現佳。模型複雜度和性能權衡對科學家重要。 PubMed DOI

研究開發了一個自然語言模型,可以將文字記憶分為五種自傳記憶類型。這有助於評估記憶偏差,包括心理健康疾病中的特異性降低和靈活性受損。模型在大數據集上訓練,準確度高。開源版本可在臨床中使用,幫助記憶干預,提升治療效果。 PubMed DOI

最新研究利用語義距離評估口語創造力,發現故事中的感知細節和語義多樣性能預測創意。使用GPT-3增進數據收集,研究顯示人工智慧和人類故事創意評分相似,且呈正相關。未來研究將探討更多可能性。 PubMed DOI

研究發現,大型語言模型(LLMs)如GPT-4和RoB-ELoC在分類成年人反思職場衝突故事時表現優異,比人類編碼者更可靠。RoB-ELoC和少樣本GPT-4特別適合作為分類器。LLMs能自動化編碼社會科學研究中的複雜概念,有助整合到研究流程中。 PubMed DOI

這項研究探討了ChatGPT(GPT-3.5和GPT-4)在評估認知表現的有效性,對象包括正常認知者和中風倖存者。90名參與者接受了記憶、數字處理、語言流暢度和抽象思維的評估。主要發現顯示GPT-3.5在記憶和語言評估上與醫生的評估存在顯著差異,但透過優化方法可改善這些差異。GPT-4的表現更接近醫生評分,顯示其在認知評估中有進一步提升的潛力。整體而言,ChatGPT作為醫療評估的輔助工具顯示出潛力。 PubMed DOI

這項研究探討了2023年3月版本的ChatGPT如何回應情感故事,並與人類的情感反應進行比較。三十四位參與者閱讀情感豐富的短篇故事並評估自己的情感反應,而ChatGPT則在十次會議中生成對同樣故事的回應。結果顯示,ChatGPT能識別和分類故事的情感內容,但預測人類情感反應的準確性不高,顯示出AI與人類在情感表達上的差異。了解這些差異對增進與AI的情感互動非常重要。 PubMed DOI