原始文章

COVID-19疫情促進了公共衛生監測和疫情管理的AI工具發展。雖然這些AI程式展現潛力,但也引發了數據隱私、偏見和人機互動的擔憂。世界衛生組織(WHO)最近的會議專注於AI在公共衛生中的角色,邀請多個機構分享見解。AI在診斷和數據處理上改善了臨床護理,但倫理考量如數據使用和算法偏見也很重要。公共衛生官員需建立透明、負責和公平的治理框架,並解決全球數據獲取的不平等問題,以確保公平醫療結果。 PubMed DOI


站上相關主題文章列表

醫學領域的人工智慧潛力龐大,但也可能帶來健康錯誤資訊風險。需醫護人員、AI開發者及監管機構密切合作,確保安全。例子顯示AI可能快速散播誤導疫苗和電子煙資訊,強調監督重要性。警惕、透明、監控和規範是保障公共衛生的關鍵。 PubMed DOI

強調解決社會健康決定因素的重要性,特別是在COVID-19大流行時,以改善健康結果、減少健康不平等。討論數位健康和人工智慧在應對社會健康決定因素、增強疾病監測和病人照護的角色,如LLMs。提及數據標準化、基礎設施限制、數位素養和演算法偏見等挑戰,可能影響AI好處的公平獲取。建議採取多層次的數位包容作為社會健康決定因素的一部分,並全球性需要倫理AI框架,確保負責任的AI實踐。提出建議,彌合公平AI技術開發和實施之間的差距。 PubMed DOI

人工智慧(AI)進步快速,可協助感染症醫師做決策。它能早期檢測疾病、提供個人化治療建議,並協助管理抗生素使用。AI不會取代專家,而是提升他們的工作。需謹慎考慮限制條件,確保安全運用。感染症專家可透過培訓、明確使用情境、設計演算法,並倡導他們在病人照護中與AI互動。 PubMed DOI

這項研究探討人工智慧(AI)在醫療領域的風險,並提出政策建議以減輕這些風險,同時發揮AI的優勢。AI若正確使用,能對醫療產生重大影響,但其快速普及也帶來倫理、法律及社會問題。研究指出,數據偏見可能導致護理不平等,且AI的可解釋性和問責性問題可能影響病人安全。報告建議提高醫療人員的AI素養、加強隱私保護,並將倫理原則融入AI設計,以確保負責任且公平地使用AI,提升醫療品質。 PubMed DOI

將大型語言模型(LLMs)整合進電子健康紀錄(EHRs)中,雖然能提升數據分析和病患照護,但也帶來隱私、法律及操作上的挑戰。主要問題包括病患未經同意的數據使用、缺乏監管、AI醫療失誤責任不明、數據偏見及重用風險。為了保護病患,特別是脆弱族群,臨床醫師應推動病患教育、倫理實踐及健全監督,確保LLMs的使用既安全又有效。 PubMed DOI

人工智慧(AI)在健康溝通系統中的應用,顯著改變了公共衛生管理,尤其在緊急情況下,能透過數位渠道有效接觸大眾。本文探討通用對話式人工智慧(CAI)的角色,強調其在健康訊息傳遞中的潛力,特別是透過AI驅動的訊息平台提供個性化的健康介入。針對COVID-19疫情的案例研究顯示CAI在健康信息傳播上的有效性。我們建議公共衛生機構與AI技術合作,同時解決偏見、錯誤信息及隱私等挑戰,展望未來CAI將提升健康溝通的可靠性。 PubMed DOI

醫療數位轉型正快速發展,提升了服務品質和健康資訊的可及性,並減輕了醫療提供者的負擔。數據和人工智慧(AI)在此過程中扮演關鍵角色,特別是醫療AI,正從特定任務擴展為更通用的應用。大型語言模型被用來整理醫學知識,並重塑醫學科學。新方法「AI for Medical Science」透過預測模型來預測疾病,專注於「狀態」而非僅是症狀,能提高診斷準確性,推進P4醫學的發展。 PubMed DOI

當前社會對科學的信任度下降,公民參與也減少,這可能影響公共健康和健康公平的研究。為了應對這些挑戰,社區為中心的公民科學應用可以提升公眾參與,並成為AI探索的重要領域。我們探討了幾個有潛力的AI應用,如對話式大型語言模型和數據分析工具,這些都能惠及社區。不過,AI在社區研究中的使用也帶來風險,我們也討論了如何減輕這些技術可能引發的倫理和社會挑戰。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI

人工智慧(AI)將對許多工作產生重大影響,特別是在醫療保健領域,尤其是癌症治療。雖然AI在診斷和放射腫瘤學中展現潛力,但仍需證據證明其臨床有效性。支持者強調人類監督的重要性,然而過度依賴AI可能導致技能退化。生成式AI的進展擴大了應用範圍,但需進行獨立研究以驗證效果。算法醫學應像新藥一樣受到重視,並需確保數據集的多樣性。此外,教育計畫和倫理考量也必須跟上,以確保病人護理的質量。 PubMed DOI