原始文章

**重點摘要:** 這項研究評估了使用 ChatGPT 來產生職能治療個案研究的可行性。五個由 AI 生成的神經學個案由十位專家進行審查,專家們對這些個案在真實性、完整性以及教育價值方面都給予高度評價。雖然專家認為這些個案很有幫助,但它們對學生學習的實際影響還需要進一步測試。 PubMed DOI


站上相關主題文章列表

像ChatGPT這樣的AI工具在臨床描述分析方面表現優異,尤其在腫瘤學和COVID-19症狀診斷上。一篇討論了ChatGPT在神經康復領域的潛力的評論指出其設計、醫學應用、自然語言處理技能和限制。研究提出案例來評估ChatGPT在臨床推理的能力,結果顯示生成式AI可協助醫師制定更有效的診斷和個人化預後策略,增進神經康復實踐。 PubMed DOI

研究發現在醫學教育中使用ChatGPT創建臨床案例容易但難達成目標,需大量編輯避免缺乏創意。儘管高效,存在不準確和虛構問題,需謹慎審查。教育工作者需建立有效框架,注意偏見和錯誤資訊風險。 PubMed DOI

這項研究評估了ChatGPT在處理跨學科問題的能力,特別是在運動復健的應用上。研究使用PanelGPT模型,讓ChatGPT模擬成為物理治療師、心理學家等專家,進行模擬討論。結果顯示,ChatGPT能提供24小時支援和個性化建議,但也面臨互動模式有限和數據隱私等挑戰。研究強調,聊天機器人應輔助醫療專業人員,而非取代他們,顯示其在醫學教育和實踐中的潛在價值。 PubMed DOI

這項研究探討了使用ChatGPT撰寫醫學案例報告的潛力,特別針對一個理論案例,涉及扭轉卵巢囊腫的囊腫抽吸。作者生成了四篇手稿,前三篇由ChatGPT根據不同細節撰寫,第四篇則是人類撰寫。分析顯示,隨著細節增加,手稿質量和可讀性提升,但人類手稿包含的個人經驗和見解是AI無法捕捉的。研究引發了對醫學寫作中「人性觸感」的討論,並建議進一步研究AI的有效性與適當性,鼓勵醫療專業人員思考使用ChatGPT的看法。 PubMed DOI

這項研究探討了ChatGPT在神經學診斷中的輔助潛力。研究人員使用神經學專家的合成數據,評估ChatGPT對各種神經疾病的診斷準確性。結果顯示,ChatGPT的準確率介於68.5%到83.83%之間,與專家神經科醫生的81.66%相當,且高於一般醫生的57.15%。這顯示人工智慧工具如ChatGPT有助於提升臨床診斷的準確性,特別是在神經學領域,未來有望改善醫療實踐和診斷過程。 PubMed DOI

這份案例報告探討了如何利用ChatGPT來開發職業治療的輔助技術,針對一位66歲的輕度認知障礙女性。職業治療師設計了兩個電腦程式,協助她進行日常生活活動,並將ChatGPT作為設計工具,而非直接與客戶互動。在八週的介入過程中,客戶在診所和家中使用這些程式,結果顯示她在日常活動的表現和獨立性上有明顯改善。研究建議,ChatGPT可成為職業治療師創建有效輔助技術的重要資源。 PubMed DOI

人工智慧(AI)在健康專業教育,特別是職業治療(OT)領域的應用,正在改變傳統教學方式,提升學習體驗。本研究探討了生成式AI,特別是ChatGPT v. 3.5,如何幫助OT學生制定介入計畫。學生透過分析案例,利用ChatGPT生成多樣化的介入想法,並進行證據研究來支持決策。結果顯示,AI不僅提升了學生的創造力和效率,還增強了他們對AI的舒適度及倫理理解。大多數學生希望在臨床實踐中使用ChatGPT,建議將其納入OT課程以增強學生的能力。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

這項研究發現,ChatGPT能快速產出真實的心血管臨床案例,有助於教學情境設計,但內容常有錯誤、資訊不全或不符護理標準。專家審查仍是確保臨床正確性和教學品質的關鍵步驟。 PubMed DOI

這項研究發現,GPT在為有心理症狀的中風患者設計職能治療方案時,內容太籠統、缺乏細節和專業性,分數偏低。雖然在部分方案設計上有輔助潛力,但目前仍無法取代專業治療師,主要受限於訓練資料不足。 PubMed DOI