原始文章

當前社會對科學的信任度下降,公民參與也減少,這可能影響公共健康和健康公平的研究。為了應對這些挑戰,社區為中心的公民科學應用可以提升公眾參與,並成為AI探索的重要領域。我們探討了幾個有潛力的AI應用,如對話式大型語言模型和數據分析工具,這些都能惠及社區。不過,AI在社區研究中的使用也帶來風險,我們也討論了如何減輕這些技術可能引發的倫理和社會挑戰。 PubMed DOI


站上相關主題文章列表

強調解決社會健康決定因素的重要性,特別是在COVID-19大流行時,以改善健康結果、減少健康不平等。討論數位健康和人工智慧在應對社會健康決定因素、增強疾病監測和病人照護的角色,如LLMs。提及數據標準化、基礎設施限制、數位素養和演算法偏見等挑戰,可能影響AI好處的公平獲取。建議採取多層次的數位包容作為社會健康決定因素的一部分,並全球性需要倫理AI框架,確保負責任的AI實踐。提出建議,彌合公平AI技術開發和實施之間的差距。 PubMed DOI

人工智慧,如機器學習和自然語言處理,正影響健康專業教育,包括醫學院的入學、評估和研究。健康教育老師缺乏人工智慧培訓是挑戰。像ChatGPT這樣的大型語言模型整合到健康教育引發問題。人工智慧能處理大量數據,但需解決偏見問題。評論指出人工智慧在健康教育中需具解釋性和透明度。 PubMed DOI

人工智慧(AI)正在快速改變生物醫學研究,加速解決問題並分析龐大數據。AI在藥物設計、毒理學和材料辨識上的應用,有潛力改革科學研究的設計、數據分析和溝通方式。像ChatGPT和Perplexity這樣的大型語言模型改變了科學家之間的互動和溝通方式。雖然AI帶來好處,但也有風險,例如保密性不足和潛在偏見。本評論討論了AI對生物醫學研究現況和未來影響,並強調了需要考慮的利弊。 PubMed DOI

這項研究探討人工智慧(AI)在醫療領域的風險,並提出政策建議以減輕這些風險,同時發揮AI的優勢。AI若正確使用,能對醫療產生重大影響,但其快速普及也帶來倫理、法律及社會問題。研究指出,數據偏見可能導致護理不平等,且AI的可解釋性和問責性問題可能影響病人安全。報告建議提高醫療人員的AI素養、加強隱私保護,並將倫理原則融入AI設計,以確保負責任且公平地使用AI,提升醫療品質。 PubMed DOI

人工智慧(AI)在健康溝通系統中的應用,顯著改變了公共衛生管理,尤其在緊急情況下,能透過數位渠道有效接觸大眾。本文探討通用對話式人工智慧(CAI)的角色,強調其在健康訊息傳遞中的潛力,特別是透過AI驅動的訊息平台提供個性化的健康介入。針對COVID-19疫情的案例研究顯示CAI在健康信息傳播上的有效性。我們建議公共衛生機構與AI技術合作,同時解決偏見、錯誤信息及隱私等挑戰,展望未來CAI將提升健康溝通的可靠性。 PubMed DOI

這項研究強調在醫療保健中開發人工智慧工具時,必須納入多元病患的觀點,特別是針對種族和族裔少數群體。調查邀請了230名來自這些群體的參與者,結果顯示雖然許多人對人工智慧有基本了解,但對其在醫療和皮膚科的應用認識不足。參與者對醫療系統的信任程度因收入而異,且不少人對自己的數據被用於人工智慧開發感到不安,並認為應該獲得補償。這項研究強調納入多元聲音的重要性,以確保公平的醫療解決方案。 PubMed DOI

COVID-19疫情促進了公共衛生監測和疫情管理的AI工具發展。雖然這些AI程式展現潛力,但也引發了數據隱私、偏見和人機互動的擔憂。世界衛生組織(WHO)最近的會議專注於AI在公共衛生中的角色,邀請多個機構分享見解。AI在診斷和數據處理上改善了臨床護理,但倫理考量如數據使用和算法偏見也很重要。公共衛生官員需建立透明、負責和公平的治理框架,並解決全球數據獲取的不平等問題,以確保公平醫療結果。 PubMed DOI

健康溝通與推廣在網路上的變化受到科技進步,特別是生成式人工智慧(GenAI)的影響。雖然這些技術為公眾和健康專業人士帶來新機會,但也可能加劇健康差距。文章探討了GenAI在健康推廣中的應用及其挑戰,強調以往網路溝通的局限性,如缺乏即時回應和個性化建議。研究呼籲進一步探討GenAI在公共健康推廣中的實證研究,並強調提升數位素養和社會弱勢群體的科技存取,以減少健康不平等。 PubMed DOI

人工智慧(AI)正在改變醫療保健,但也帶來了倫理和法規挑戰。本研究旨在建立一個可信賴的AI框架,強調透明度和公平性,並提供可行策略以在臨床中實施。透過文獻回顧,發現目前AI治理存在缺口,提出了適應性監管框架和可量化的可信度指標。研究強調多方參與和全球合作的重要性,以確保AI創新能解決醫療需求。實現可信賴的AI需要技術進步、倫理保障和持續合作,促進負責任的創新並提升病人結果。 PubMed DOI

人工智慧(AI)將對許多工作產生重大影響,特別是在醫療保健領域,尤其是癌症治療。雖然AI在診斷和放射腫瘤學中展現潛力,但仍需證據證明其臨床有效性。支持者強調人類監督的重要性,然而過度依賴AI可能導致技能退化。生成式AI的進展擴大了應用範圍,但需進行獨立研究以驗證效果。算法醫學應像新藥一樣受到重視,並需確保數據集的多樣性。此外,教育計畫和倫理考量也必須跟上,以確保病人護理的質量。 PubMed DOI