原始文章

這項研究發現,ChatGPT-4在調整和執行常見的老年人心理健康問卷時,表現和傳統方法有中到高度的一致性與可靠性。顯示ChatGPT-4有機會成為心理健康評估的輔助工具,但還需要更多研究來驗證其廣泛應用的可行性。 PubMed DOI


站上相關主題文章列表

ChatGPT等聊天機器人的出現,改變了我們與資訊互動的方式,並在商業、教育及生物醫學等領域廣泛應用。近期,研究人員針對老年學進行了一項研究,評估ChatGPT對相關問題的回答。研究團隊由多學科專家組成,針對不同老年學領域提出問題,並評估回答的準確性與完整性。結果顯示,ChatGPT的回答通常準確,但完整性有所差異,資訊學小組的評價最為全面。總體而言,ChatGPT在老年學研究中具潛力,但研究人員仍需批判性地評估其回答。 PubMed DOI

這項研究探討了ChatGPT(GPT-3.5和GPT-4)在評估認知表現的有效性,對象包括正常認知者和中風倖存者。90名參與者接受了記憶、數字處理、語言流暢度和抽象思維的評估。主要發現顯示GPT-3.5在記憶和語言評估上與醫生的評估存在顯著差異,但透過優化方法可改善這些差異。GPT-4的表現更接近醫生評分,顯示其在認知評估中有進一步提升的潛力。整體而言,ChatGPT作為醫療評估的輔助工具顯示出潛力。 PubMed DOI

這項研究探討了生成式人工智慧,特別是ChatGPT-3.5和ChatGPT-4,如何在管理和解釋Sour Seven Questionnaire工具中評估譫妄。目的是評估AI在臨床環境中模仿人類評估者的能力,並透過提示工程增強模型的理解。結果顯示,經過調整後,兩個ChatGPT模型在識別和評分譫妄症狀上有所改善,顯示AI在標準化臨床評估中的潛力,但仍需進一步研究以驗證其在現實情境中的應用。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

本研究評估ChatGPT 4 Omni在診斷神經認知障礙的準確性,並與早期版本比較。研究分為兩部分,第一部分分析其與臨床醫生的診斷一致性,涉及12,922名老年人,結果顯示有一定的關聯性,但準確性仍不足以獨立使用。第二部分則使用537名老年人的數據,未顯示顯著一致性。結論指出,雖然ChatGPT 4 Omni有潛力,但仍需改進與訓練,以提升其在臨床中的應用效果。 PubMed DOI

這項研究評估了ChatGPT-4生成的問卷在焦慮和憂鬱評估上的有效性,並與PHQ-9和GAD-7進行比較。新問卷GPT-PHQ-9和GPT-GAD-7在200名大學生中測試,結果顯示其可靠性可接受(Cronbach's α分別為0.75和0.76),且與已驗證工具一致性良好(ICC值為0.80和0.70)。研究發現中等相關性,憂鬱和焦慮的最佳截斷分數分別為9.5和6.5,顯示高敏感性和特異性。這些結果顯示ChatGPT-4調整的問卷值得在不同族群中進一步研究。 PubMed DOI

這項研究發現,ChatGPT-4 在基礎統計分析上表現接近 SPSS,但在進階統計(如 MANOVA)會出錯;而 ChatGPT o3-mini 在相關分析和多變量檢定時,結果常不準確或誇大。整體來說,AI 工具雖有潛力,但目前還無法完全取代傳統統計軟體,特別是在複雜分析上。 PubMed DOI

這項研究發現,把醫學問卷從英文翻成丹麥文時,ChatGPT-4只要經過人工審查和驗證,翻譯品質就跟傳統人工翻譯沒什麼差別。無論是可讀性、理解度還是語言表現,大家的偏好都差不多,所以AI翻譯其實可以取代傳統問卷翻譯方式。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這項研究發現,ChatGPT-4o在回答抗憂鬱劑相關問題時,正確率跟有經驗的精神科醫師一樣高,回答也比較精簡,易讀性差不多。不過,醫師的說明還是比較清楚。雖然ChatGPT-4o有潛力協助病人衛教,但臨床專業還是不可取代的。 PubMed DOI