原始文章

這項針對超過四百萬筆Claude GenAI互動紀錄的分析發現,只有2.58%跟醫療保健有關,遠低於電腦運算等領域。醫療領域主要用在病人照護角色,但整體數位採用率還是偏低。研究也無法分辨使用者是醫療人員還是病人,顯示未來需要更好的身分辨識機制和相關指引。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

這項研究評估了紐約大學朗戈健康中心使用一款私人生成式人工智慧應用程式(GenAI Studio)的情況。六個月內,超過1007名員工申請使用權限,並在研究和臨床部門中活躍使用。使用者普遍認為這個工具易於操作,主要用於寫作、編輯、摘要、數據分析和創意發想。不過,使用上也面臨提示構建的困難及API限制等挑戰。研究顯示對GenAI的興趣強烈,並強調員工培訓在醫療環境中成功實施此技術的重要性。 PubMed DOI

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

生成式人工智慧(GenAI)在醫療服務中有潛力,尤其是在臨床環境。不過,實際臨床的複雜性需要謹慎且基於證據的方法來確保AI的安全與有效性。本研究將系統性評估四個知名的GenAI模型(Claude 2、Gemini Pro、GPT-4.0及一個自訂的GPT-4.0聊天機器人),並針對臨床微生物學和傳染病領域進行分析。評估將由兩組專業醫師進行,使用5點李克特量表來檢視回應的事實一致性、全面性、一致性及潛在醫療危害。研究將提供GenAI在臨床應用的見解,並強調制定倫理指導方針的重要性。 PubMed DOI

最新調查發現,泌尿科專業人員用GPTs/LLMs處理學術工作的比例大增,但實際用在臨床上的反而減少。雖然AI在學術領域越來越普及,但臨床應用還是有疑慮,顯示未來AI發展要更重視人性化設計。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這份研究發現,OpenAI GPT store 上有超過千個健康相關自訂 GPT,很多都自稱醫療專家,但其實沒有經過主要醫療監管機構核准。這些 AI 工具快速增加、角色也越來越多元,讓人擔心監管不足和病患安全問題。 PubMed DOI

紐約一項調查發現,多數醫師知道也有興趣用大型語言模型(LLM)虛擬助理,但實際用的人還不多。大家最想用在文獻審閱、病人衛教和醫療紀錄。年輕醫師、住院醫師和女性醫師興趣較高。研究建議未來要加強教育和指引,協助醫療人員安全導入LLM。 PubMed DOI

這份研究發現,生成式AI(像Claude 3.5 Sonnet)能幫助醫療人員和工程師溝通、整理需求、規劃App功能,對專案起步很有幫助。不過也有人擔心AI產出的規格太細,可能造成困擾。總結來說,AI能提升溝通效率,但不能太依賴,未來還要多做不同情境的研究。 PubMed DOI