原始文章

這份研究發現,OpenAI GPT store 上有超過千個健康相關自訂 GPT,很多都自稱醫療專家,但其實沒有經過主要醫療監管機構核准。這些 AI 工具快速增加、角色也越來越多元,讓人擔心監管不足和病患安全問題。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

最新調查發現,泌尿科專業人員用GPTs/LLMs處理學術工作的比例大增,但實際用在臨床上的反而減少。雖然AI在學術領域越來越普及,但臨床應用還是有疑慮,顯示未來AI發展要更重視人性化設計。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

**重點摘要:** 生成式AI和大型語言模型可以提升醫學教育的效率,並讓學習更加個人化,但同時也帶來學習品質、評量真實性和學術誠信等方面的疑慮。這篇綜述討論了這些議題,包括教學策略、AI的新角色以及可信度問題,並探討了可能的監管對策來因應這些挑戰。 PubMed DOI

生成式AI像ChatGPT未來可協助醫療文件處理,減輕醫師行政負擔並提升紀錄標準化。不過,這也帶來偏見、臨床判斷影響、醫病關係改變等倫理疑慮,且出錯時責任歸屬不明。建議應主動告知病人、醫師審查AI草稿、訂定規範及錯誤通報機制,並強化多元訓練資料與醫學教育。 PubMed DOI

這項針對超過四百萬筆Claude GenAI互動紀錄的分析發現,只有2.58%跟醫療保健有關,遠低於電腦運算等領域。醫療領域主要用在病人照護角色,但整體數位採用率還是偏低。研究也無法分辨使用者是醫療人員還是病人,顯示未來需要更好的身分辨識機制和相關指引。 PubMed DOI

這份調查發現,醫學界對生成式AI的認知很高,但知識多屬中等,態度普遍正面,使用行為也算合理。知識和態度會影響實際應用,且中國以外的受訪者表現較佳。多數人認同應主動揭露AI使用情形。研究建議應加強相關訓練並訂定明確指引,以確保AI在醫學領域的合規與有效運用。 PubMed DOI

生成式AI正快速影響醫療教育,雖然帶來不少挑戰,但只要有良好規範和指導,還是能創造很多機會。關鍵在於提升師生的AI素養,這樣才能兼顧專業、病人安全,同時避免影響學生的批判性思考和解決問題能力。 PubMed DOI

生成式AI和大型語言模型越來越多人用來查醫療資訊,雖然有助提升健康知識,但也可能出現錯誤、過度簡化或隱私等問題。現有研究多著重正確性,較少納入病人實際經驗。未來應加強透明度、監督,並讓醫療人員和使用者參與回饋,同時加強大眾教育。 PubMed DOI