原始文章

本研究探討生成式人工智慧(AI)在罕見疾病資訊上的準確性與安全性。研究評估了四個AI模型的回答,結果顯示大部分模型提供的資訊相對可靠,但仍有不準確的情況,可能讓患者及其家庭感到困惑。特別是Perplexity模型的表現較差,低分比例較高。研究強調了解AI的局限性並提供專家指導的重要性,以確保患者能有效利用這些工具。 PubMed DOI


站上相關主題文章列表

研究使用OpenAI的GPT-4開發AI助手,解釋藥物基因測試結果,提升臨床遺傳學決策,改善患者護理。AI助手採用RAG技術,結合CPIC數據庫,針對用戶提供個人化回答。相較ChatGPT 3.5,表現更佳,尤其在專業查詢方面。需改進回答準確性、相關性和語言表達。整合GPT-4與RAG提升效能,利用CPIC數據。挑戰在提高準確性、解決道德問題,發展專業基因/藥物模型。研究凸顯生成式AI在醫療支援和患者獲取複雜基因組學資訊的潛力。謹慎應用大型語言模型如GPT-4,可顯著提升對基因組學數據的理解,增進醫療服務。 PubMed DOI

這項研究評估了 ChatGPT 和 Google Bard 兩個大型語言模型在婦科癌症管理問題上的表現。結果顯示,這兩個模型對於一些常見問題的回答大多準確,如子宮頸癌篩檢和 BRCA 相關問題。然而,面對更複雜的案例時,它們的表現較差,常缺乏對地區指導方針的了解。儘管如此,這些模型仍能提供病人和照護者在管理和後續步驟上的實用建議。結論指出,LLMs 雖無法取代專業醫療建議,但可作為輔助工具,提供資訊和支持。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI

這篇論文探討基因數據在疾病診斷與治療中的重要性,特別是癌症研究,並指出將這些數據整合進臨床護理的挑戰,如電子健康紀錄的結構、保險成本及基因結果的可解釋性。研究也提到人工智慧(AI)和大型語言模型(LLMs)在解決這些問題上的潛力。儘管AI在醫學研究中的成功有限,但基於大量數據訓練的LLMs在基因分析上顯示出希望。研究評估了GPT模型在基因表達數據的預測能力,並與傳統機器學習方法進行比較,以探討其在預測癌症亞型的潛力。 PubMed DOI

這項研究評估了四個生成式人工智慧模型在回答2023年神經外科醫師大會對Chiari 1畸形指導方針問題的表現。研究提出十三個問題,結果顯示Perplexity的符合率最高,達69.2%,而ChatGPT 4o最低,僅23.1%。Copilot和Gemini的符合率分別為61.5%和30.8%。所有模型的可讀性都很高,顯示出理解上的困難。研究強調,雖然AI能協助臨床,但醫生在解讀AI回應時的判斷仍然至關重要。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

人工智慧(AI)特別是像ChatGPT這樣的生成大型語言模型(LLMs),對遺傳諮詢等職業影響深遠。在實務中整合LLMs前,了解其優勢、偏見、風險及應用非常重要。雖然LLMs能提升信息處理和溝通效率,但在與客戶互動時,仍需注意倫理、法規和隱私問題。它們無法取代人類諮詢師的個性化服務和專業知識。LLMs的潛力巨大,但必須持續關注諮詢過程及心理治療的目標,以確保提供高品質的客戶支持。 PubMed DOI

這項研究評估了三個生成式人工智慧模型—ChatGPT-4o、Gemini 1.5 Advanced Pro 和 Claude 3.5 Sonnet—在創建與高血壓和糖尿病相關的藥理學問題的有效性。使用一次性提示,這些模型生成了60個問題,並由多學科小組進行可用性評估。103名醫學生在考試中回答了AI生成的問題,結果顯示AI問題的正確率與專家問題相當,且AI生成問題的準備效率顯著提升。然而,仍有19個問題被認為無法使用,顯示專家審查的重要性。結合AI效率與專家驗證的方式,可能是改善醫學教育的最佳策略。 PubMed DOI

本研究探討生成式人工智慧(GenAI)在臨床微生物學和傳染病諮詢中的應用潛力。透過評估四款聊天機器人(如GPT-4.0),研究發現GPT-4.0在事實一致性、全面性及無醫療危害性方面表現優於其他兩款。專家對AI回應的評分顯著高於住院醫師,且專家認為回應“無害”的可能性更高,但仍有少於兩成的回應被認為無害。研究強調醫療人員的專業知識對AI回應的解讀影響深遠,並指出目前無AI模型可在無人監督下安全使用於臨床。 PubMed DOI