原始文章

人工智慧(AI)在健康溝通系統中的應用,顯著改變了公共衛生管理,尤其在緊急情況下,能透過數位渠道有效接觸大眾。本文探討通用對話式人工智慧(CAI)的角色,強調其在健康訊息傳遞中的潛力,特別是透過AI驅動的訊息平台提供個性化的健康介入。針對COVID-19疫情的案例研究顯示CAI在健康信息傳播上的有效性。我們建議公共衛生機構與AI技術合作,同時解決偏見、錯誤信息及隱私等挑戰,展望未來CAI將提升健康溝通的可靠性。 PubMed DOI


站上相關主題文章列表

人工智慧,特別是ChatGPT,進入醫療領域帶來了許多機會與挑戰。最近的回顧研究探討了ChatGPT在飲食規劃、疾病管理、醫學教育及臨床決策支持等方面的應用。研究指出,雖然ChatGPT在某些領域的準確性高,但也存在不準確、偏見及安全性等問題。許多研究專注於特定領域,可能影響結果的普遍適用性。隨著技術進步,評估其長期影響及倫理考量變得重要,確保在醫療環境中的負責任使用。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

當前社會對科學的信任度下降,公民參與也減少,這可能影響公共健康和健康公平的研究。為了應對這些挑戰,社區為中心的公民科學應用可以提升公眾參與,並成為AI探索的重要領域。我們探討了幾個有潛力的AI應用,如對話式大型語言模型和數據分析工具,這些都能惠及社區。不過,AI在社區研究中的使用也帶來風險,我們也討論了如何減輕這些技術可能引發的倫理和社會挑戰。 PubMed DOI

人工智慧(AI)在醫學領域的發展迅速,主要得益於大量生物醫學數據和創新演算法。它的應用範圍不斷擴大,從輔助診斷到預測疾病進展,促進個人化醫療的實現。像ChatGPT這樣的語言模型引起醫學界的關注,雖然使用方便,但在醫療環境中的可靠性仍需考量。這篇綜述探討了醫學AI的關鍵概念、數據來源及常見的研究陷阱,並分析了技術轉變的實際與倫理影響,強調醫療界需有效整合這些工具。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI

COVID-19疫情促進了公共衛生監測和疫情管理的AI工具發展。雖然這些AI程式展現潛力,但也引發了數據隱私、偏見和人機互動的擔憂。世界衛生組織(WHO)最近的會議專注於AI在公共衛生中的角色,邀請多個機構分享見解。AI在診斷和數據處理上改善了臨床護理,但倫理考量如數據使用和算法偏見也很重要。公共衛生官員需建立透明、負責和公平的治理框架,並解決全球數據獲取的不平等問題,以確保公平醫療結果。 PubMed DOI

健康溝通與推廣在網路上的變化受到科技進步,特別是生成式人工智慧(GenAI)的影響。雖然這些技術為公眾和健康專業人士帶來新機會,但也可能加劇健康差距。文章探討了GenAI在健康推廣中的應用及其挑戰,強調以往網路溝通的局限性,如缺乏即時回應和個性化建議。研究呼籲進一步探討GenAI在公共健康推廣中的實證研究,並強調提升數位素養和社會弱勢群體的科技存取,以減少健康不平等。 PubMed DOI

這項研究探討大型語言模型(LLMs)在疾病風險評估中的應用,特別是對COVID-19嚴重程度的預測。與傳統機器學習方法不同,LLMs透過對話式人工智慧實現即時、無需編碼的風險評估。研究比較了LLaMA2-7b和Flan-T5-xl等預訓練模型與傳統分類器的表現,發現LLMs在低數據環境中表現優異,能有效處理非結構化輸入,並提供個性化見解,顯示其在臨床環境中的潛力。 PubMed DOI

本研究探討生成式人工智慧(GenAI)在臨床微生物學和傳染病諮詢中的應用潛力。透過評估四款聊天機器人(如GPT-4.0),研究發現GPT-4.0在事實一致性、全面性及無醫療危害性方面表現優於其他兩款。專家對AI回應的評分顯著高於住院醫師,且專家認為回應“無害”的可能性更高,但仍有少於兩成的回應被認為無害。研究強調醫療人員的專業知識對AI回應的解讀影響深遠,並指出目前無AI模型可在無人監督下安全使用於臨床。 PubMed DOI

這項研究探討AI生成的健康資訊與CDC提供的資訊差異,重點在情感、可讀性和品質。透過語言期待理論,分析了不同來源內容對可信度的影響。比較了CDC和ChatGPT 3.5各20條資訊,並進行品質評估。 主要發現包括: 1. **情感**:ChatGPT的內容較多負面情感,常出現憤怒、悲傷和厭惡的詞彙。 2. **可讀性**:CDC的訊息更易讀,ChatGPT則需較高閱讀年級。 3. **品質**:CDC的資訊在品質評估中得分較高,顯示更可靠。 研究強調公共衛生專業人員需教育大眾理解AI生成健康資訊的複雜性,並建議健康素養計畫應涵蓋這類內容的品質與可讀性討論。 PubMed DOI