原始文章

在希臘進行的研究探討了AI應用程式ChatGPT 4.0在193位不同醫療專科醫生中的實用性與滿意度。參與者與專為其部門設計的聊天機器人互動,並用1到5分評分。結果顯示,普通外科和心臟科醫生的滿意度較低(2.73到2.80),而生物病理學和骨科醫生則較高(4.00到4.46)。這反映出不同專科的需求差異,並指出改善的空間。儘管有些限制,ChatGPT 4.0仍顯示出在醫療領域的潛力,未來有望進一步整合與發展。 PubMed DOI


站上相關主題文章列表

研究指出,人們對於像ChatGPT這樣的AI聊天機器人進行自我診斷持開放態度,但受到性能期望和風險-回報評估等因素影響。未來需要加強AI開發者、醫療提供者和政策制定者的合作,確保AI聊天機器人在醫療保健領域安全可靠。透過了解使用者需求,AI聊天機器人可提供更貼心的健康資訊,提升健康素養。未來研究應關注長期效應及整合其他數位健康干預,以優化患者護理和結果。 PubMed DOI

研究探討使用類似ChatGPT的聊天機器人在醫患溝通的可行性。參與者區分機器人和人類回應,對機器人信任度中等,尤其在回答低風險問題時。結果顯示機器人可能在醫療中扮演更多角色,但仍需進一步研究。 PubMed DOI

研究評估了ChatGPT在過去5次醫學專業考試中的表現,分析了成功率和排名。ChatGPT回答各種問題,成功率不同,排名從第1787名到第4428名。在短問題和單選多選擇題上表現較佳,但仍落後於人類專家。研究引起對ChatGPT在醫療服務潛力的好奇。 PubMed DOI

研究評估醫師和醫學生對於使用ChatGPT聊天機器人的看法。結果顯示,醫學生較支持在臨床和教育中使用,但擔心缺乏個人化治療、更新證據和語言問題。兩者皆認為ChatGPT可用於製作病人教育資料。 PubMed DOI

研究發現ChatGPT在職業健康問題回答上表現不如醫師,但能提供法規專業答案。使用者偏愛人類回答,顯示人類專業知識與AI並重的重要性。 PubMed DOI

研究比較神經學家和ChatGPT對多發性硬化症患者問題的回應,發現ChatGPT表現出更高的同理心,但受過大學教育者較不喜歡其回應。建議在醫療保健中使用人工智慧時應謹慎並基於人類互動。 PubMed DOI

ChatGPT等人工智慧聊天機器人在醫療保健領域廣泛應用,研究顯示醫護人員對其滿意,認為有助於改善患者結果和醫療實踐。然而,也擔心潛在危害和法律影響。研究指出,信任、熟悉度和電腦技能影響接受程度,建議推廣時需重視建立信任,解決道德和法律問題。 PubMed DOI

研究指出,ChatGPT回答日本內科專家問題的整體準確率為59.05%,對非圖像問題的準確率提升至65.76%,但仍不及人類專家。ChatGPT在持續正確回答的問題(CCA)和持續錯誤回答的問題(CIA)之間有明顯的準確性差異。因此,ChatGPT應被視為醫學判斷的輔助,而非替代。未來應進一步研究,以更好整合ChatGPT等人工智慧工具到專業醫學實務中。 PubMed DOI

這篇系統性回顧探討了ChatGPT在醫療保健的應用,包括教育、研究、寫作、病患溝通等。透過對多個資料庫的搜尋,找到83篇相關研究,顯示ChatGPT能改善科學研究和學術寫作的文法與清晰度,特別對非英語使用者有幫助。不過,它也有不準確性、倫理問題和情感敏感度不足等限制。雖然能簡化工作流程並支持診斷與教育,但仍需謹慎使用,因為資訊可靠性和誤導性回應的風險存在。 PubMed DOI

這項研究探討了將ChatGPT融入醫學教育的可行性,並強調AI能力對醫學生的重要性。52名醫學生參與了混合式學習課程,評估了使用ChatGPT的效果。主要發現包括:學生在整合ChatGPT的課程中滿意度和學習進展高,且對AI技能的重視程度上升。雖然學生對ChatGPT生成的病人資訊評價中等,但使用擴展提示後明顯改善。研究建議將ChatGPT納入醫學教育,以提升學習體驗並發展AI能力。 PubMed DOI