原始文章

生成式人工智慧(GenAI)在醫療服務中有潛力,尤其是在臨床環境。不過,實際臨床的複雜性需要謹慎且基於證據的方法來確保AI的安全與有效性。本研究將系統性評估四個知名的GenAI模型(Claude 2、Gemini Pro、GPT-4.0及一個自訂的GPT-4.0聊天機器人),並針對臨床微生物學和傳染病領域進行分析。評估將由兩組專業醫師進行,使用5點李克特量表來檢視回應的事實一致性、全面性、一致性及潛在醫療危害。研究將提供GenAI在臨床應用的見解,並強調制定倫理指導方針的重要性。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

最近生成式人工智慧的進展,特別是像ChatGPT這類工具,顯示出在醫療保健中提升決策支持、教育和病人參與的潛力。不過,必須進行徹底評估以確保其臨床使用的可靠性和安全性。2023年的一項回顧分析了41篇學術研究,強調了ChatGPT在醫學領域的有效性,並指出其表現因專科和語言環境而異。雖然展現了潛力,但仍需克服一些挑戰。總體而言,持續改進對於成功整合至醫療保健至關重要,以改善病人護理結果。 PubMed DOI

抗微生物抗藥性是全球健康的重要議題,亟需創新策略來改善抗生素管理。AI 聊天機器人,特別是大型語言模型,能協助臨床醫師優化抗生素治療。本研究回顧了過去五年相關文獻,發現AI 聊天機器人能提供抗生素建議、增強醫學教育及改善臨床決策,但仍面臨臨床細節管理不一致、算法偏見及數據隱私等挑戰。未來需進行嚴格的臨床試驗及跨學科合作,以確保其安全有效地應用於臨床。 PubMed DOI

抗微生物抗藥性(AMR)對全球健康構成嚴重威脅,預計到2050年每年可能造成1000萬人死亡。為了有效應對,公共衛生訊息需針對不同受眾調整。本研究評估了ChatGPT-4生成適合文化和語言的AMR意識內容的能力。專家們識別了AMR的主要貢獻者,並開發了多語言的內容。雖然ChatGPT-4在生成定制內容方面顯示潛力,但質量差異顯著,需專業審查。未來研究應聚焦於完善提示和整合反饋,以提升內容有效性。 PubMed DOI

這項系統性回顧分析了137篇經過同行評審的研究,探討生成式人工智慧聊天機器人在健康建議上的表現。結果顯示,研究報告標準差異大,主要集中在外科、醫學和基層醫療。大部分研究針對治療、診斷或疾病預防,但幾乎全數(99.3%)使用的都是無法訪問的封閉源碼大型語言模型,且對其特徵描述不足。此外,多數研究未提及提示工程,只有少數討論倫理、法規及病人安全。這些結果顯示需改善報告標準,建議開發聊天機器人評估報告工具(CHART),以提升臨床評估與整合的效果。 PubMed DOI

最近大型語言模型(LLMs)在即時搜尋和多語言支持上有了顯著進展,但提供健康資訊的安全性仍然很重要。針對七個公開的LLMs進行的評估顯示,英語回應中沒有臨床錯誤,但294個非英語回應中有7個出現錯誤。雖然48%的回應有有效引用,但39%的英語引用來自.com網站,質量堪憂。此外,英語回應的閱讀水平普遍較高,非英語回應也相對複雜。這些結果顯示LLMs在準確性和可讀性上仍需改進,持續的基準測試是必要的。 PubMed DOI

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

本研究探討生成式人工智慧(AI)在罕見疾病資訊上的準確性與安全性。研究評估了四個AI模型的回答,結果顯示大部分模型提供的資訊相對可靠,但仍有不準確的情況,可能讓患者及其家庭感到困惑。特別是Perplexity模型的表現較差,低分比例較高。研究強調了解AI的局限性並提供專家指導的重要性,以確保患者能有效利用這些工具。 PubMed DOI

本研究探討生成式人工智慧(GenAI)在臨床微生物學和傳染病諮詢中的應用潛力。透過評估四款聊天機器人(如GPT-4.0),研究發現GPT-4.0在事實一致性、全面性及無醫療危害性方面表現優於其他兩款。專家對AI回應的評分顯著高於住院醫師,且專家認為回應“無害”的可能性更高,但仍有少於兩成的回應被認為無害。研究強調醫療人員的專業知識對AI回應的解讀影響深遠,並指出目前無AI模型可在無人監督下安全使用於臨床。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI