原始文章

這份研究發現,OpenAI GPT store 上有超過千個健康相關自訂 GPT,很多都自稱醫療專家,但其實沒有經過主要醫療監管機構核准。這些 AI 工具快速增加、角色也越來越多元,讓人擔心監管不足和病患安全問題。 PubMed DOI


站上相關主題文章列表

總結來說,像ChatGPT這樣的AI系統快速發展正在改變醫療保健和醫患關係。醫護人員需增強道德警覺,以因應技術帶來的風險和機會。他們需學習新技能,善用數位工具,同時保持專業知識和批判思維。本文探討如何在醫療中道德整合AI,確保提供優質服務。 PubMed DOI

這項研究探討自訂生成預訓練變壓器(cGPTs)在眼科的應用,分析了22個相關模型。發現55%為一般用途,青光眼是最常見的子專科。超過一半的cGPTs擁有超出標準GPT-4的知識。指令的相容性評估中位數為3.5,顯示出中等到強烈的代表性,且指令字數與評分有顯著相關性。研究指出cGPTs在對話調整和信息檢索上有潛力,但也需注意可能的安全風險。總體來看,cGPTs在醫療上可能提供更專業的解決方案,但仍需進一步研究。 PubMed DOI

大型語言模型(LLMs)如GPT-4在醫療領域的應用帶來了機會與挑戰。雖然它們能提升醫療服務與病人照護,但也引發了監管與安全問題,如高變異性、缺乏可解釋性及AI幻覺風險等,讓美國和歐盟的醫療器械批准過程變得複雜。儘管如此,基於LLM的醫療應用已進入市場,顯示出監管的空白。迫切需要針對LLM特性建立框架,並加強法規執行,以免延誤對病人的保護,影響其在醫療建議上的潛力。 PubMed DOI

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

這篇摘要強調了使用像GPT-3.5這類AI工具來生成病人出院指示的好處與風險。雖然這些工具能提升病人的遵從性和治療效果,但對MIMIC-IV中100份出院摘要的評估顯示,18%的摘要存在潛在的安全隱患,其中6%出現幻覺,3%引入新藥物。這提醒我們在臨床環境中使用AI時,必須謹慎實施和監督,以確保病人的安全與準確性。 PubMed DOI

生成式人工智慧(AI)在醫療保健中有潛力提升診斷準確性和個性化治療,但其快速且未受監管的使用引發了多項倫理問題。主要問題包括AI可能產生誤導性資訊,導致誤診,強調了醫師監督的重要性。此外,許多大型語言模型缺乏透明度,可能削弱病人和醫療提供者的信任。AI的監管不足也使得病人數據安全和合成數據的有效性成為挑戰。為確保AI的安全使用,需建立嚴格的數據安全標準和跨學科的監督機制,以保障病人的安全和信任。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

最新調查發現,泌尿科專業人員用GPTs/LLMs處理學術工作的比例大增,但實際用在臨床上的反而減少。雖然AI在學術領域越來越普及,但臨床應用還是有疑慮,顯示未來AI發展要更重視人性化設計。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

生成式AI像ChatGPT未來可協助醫療文件處理,減輕醫師行政負擔並提升紀錄標準化。不過,這也帶來偏見、臨床判斷影響、醫病關係改變等倫理疑慮,且出錯時責任歸屬不明。建議應主動告知病人、醫師審查AI草稿、訂定規範及錯誤通報機制,並強化多元訓練資料與醫學教育。 PubMed DOI