原始文章

本研究探討生成式人工智慧(AI)在罕見疾病資訊上的準確性與安全性。研究評估了四個AI模型的回答,結果顯示大部分模型提供的資訊相對可靠,但仍有不準確的情況,可能讓患者及其家庭感到困惑。特別是Perplexity模型的表現較差,低分比例較高。研究強調了解AI的局限性並提供專家指導的重要性,以確保患者能有效利用這些工具。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

這項研究評估了三款生成式AI聊天機器人—Chat GPT-4、Claude和Bard—在回答子宮內膜異位症問題的準確性。九位婦產科醫生對十個常見問題的回答進行評分,結果顯示Bard平均得分3.69,Chat GPT 4.24,Claude 3.7。雖然這些機器人的回答大多正確,但仍不夠全面,Chat GPT的表現最佳。研究強調持續評估這些聊天機器人的必要性,以確保能提供準確且全面的資訊,並指出隨著生成式AI在醫療領域的普及,進一步研究的重要性。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI

生成式人工智慧(GenAI)在醫療服務中有潛力,尤其是在臨床環境。不過,實際臨床的複雜性需要謹慎且基於證據的方法來確保AI的安全與有效性。本研究將系統性評估四個知名的GenAI模型(Claude 2、Gemini Pro、GPT-4.0及一個自訂的GPT-4.0聊天機器人),並針對臨床微生物學和傳染病領域進行分析。評估將由兩組專業醫師進行,使用5點李克特量表來檢視回應的事實一致性、全面性、一致性及潛在醫療危害。研究將提供GenAI在臨床應用的見解,並強調制定倫理指導方針的重要性。 PubMed DOI

人工智慧(AI)特別是像ChatGPT這樣的生成大型語言模型(LLMs),對遺傳諮詢等職業影響深遠。在實務中整合LLMs前,了解其優勢、偏見、風險及應用非常重要。雖然LLMs能提升信息處理和溝通效率,但在與客戶互動時,仍需注意倫理、法規和隱私問題。它們無法取代人類諮詢師的個性化服務和專業知識。LLMs的潛力巨大,但必須持續關注諮詢過程及心理治療的目標,以確保提供高品質的客戶支持。 PubMed DOI

這項研究評估了三個生成式人工智慧模型—ChatGPT-4o、Gemini 1.5 Advanced Pro 和 Claude 3.5 Sonnet—在創建與高血壓和糖尿病相關的藥理學問題的有效性。使用一次性提示,這些模型生成了60個問題,並由多學科小組進行可用性評估。103名醫學生在考試中回答了AI生成的問題,結果顯示AI問題的正確率與專家問題相當,且AI生成問題的準備效率顯著提升。然而,仍有19個問題被認為無法使用,顯示專家審查的重要性。結合AI效率與專家驗證的方式,可能是改善醫學教育的最佳策略。 PubMed DOI

本研究探討生成式人工智慧(GenAI)在臨床微生物學和傳染病諮詢中的應用潛力。透過評估四款聊天機器人(如GPT-4.0),研究發現GPT-4.0在事實一致性、全面性及無醫療危害性方面表現優於其他兩款。專家對AI回應的評分顯著高於住院醫師,且專家認為回應“無害”的可能性更高,但仍有少於兩成的回應被認為無害。研究強調醫療人員的專業知識對AI回應的解讀影響深遠,並指出目前無AI模型可在無人監督下安全使用於臨床。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI