原始文章

健康溝通與推廣在網路上的變化受到科技進步,特別是生成式人工智慧(GenAI)的影響。雖然這些技術為公眾和健康專業人士帶來新機會,但也可能加劇健康差距。文章探討了GenAI在健康推廣中的應用及其挑戰,強調以往網路溝通的局限性,如缺乏即時回應和個性化建議。研究呼籲進一步探討GenAI在公共健康推廣中的實證研究,並強調提升數位素養和社會弱勢群體的科技存取,以減少健康不平等。 PubMed DOI


站上相關主題文章列表

強調解決社會健康決定因素的重要性,特別是在COVID-19大流行時,以改善健康結果、減少健康不平等。討論數位健康和人工智慧在應對社會健康決定因素、增強疾病監測和病人照護的角色,如LLMs。提及數據標準化、基礎設施限制、數位素養和演算法偏見等挑戰,可能影響AI好處的公平獲取。建議採取多層次的數位包容作為社會健康決定因素的一部分,並全球性需要倫理AI框架,確保負責任的AI實踐。提出建議,彌合公平AI技術開發和實施之間的差距。 PubMed DOI

GenAI LLMs,如ChatGPT,有潛力在醫療保健領域帶來重大影響。研究指出,這些技術可改善醫療服務效率,但也需面對道德及安全挑戰。未來應該加強研究,專注於實證或臨床領域,以推動這些技術在醫療保健中的應用。 PubMed DOI

總結來說,像ChatGPT這樣的AI系統快速發展正在改變醫療保健和醫患關係。醫護人員需增強道德警覺,以因應技術帶來的風險和機會。他們需學習新技能,善用數位工具,同時保持專業知識和批判思維。本文探討如何在醫療中道德整合AI,確保提供優質服務。 PubMed DOI

這篇論文探討如何透過科技實現「資訊民主化」,特別是生成式人工智慧(GenAI)在心理健康領域的應用。它回顧了資訊獲取的歷史變遷,指出GenAI技術的出現為心理健康資源提供了更好的獲取途徑,並可能改變醫療提供者與病人之間的關係。不過,將GenAI整合進心理健康領域也帶來了倫理問題和風險。論文提出了一個策略性問卷,評估AI應用的好處與風險,並主張心理健康專業人員應參與技術開發,以確保GenAI的進展既有效又符合倫理,並以病人需求為中心。 PubMed DOI

這篇文獻回顧探討了人工智慧(AI)在醫療溝通中的應用,特別是大型語言模型(如ChatGPT)的整合。文中指出,AI能改善病患與醫生的互動,克服語言障礙,並提供同理心的回應。研究顯示,AI在提供清晰準確資訊方面表現優異,甚至有時超越人類醫生。不過,AI生成內容的不準確性和「幻覺」問題仍需解決,這需要持續改進演算法。文章強調AI在健康溝通中的潛力,並呼籲進一步研究與政策發展,以應對相關風險。 PubMed DOI

人工智慧(AI)在健康溝通系統中的應用,顯著改變了公共衛生管理,尤其在緊急情況下,能透過數位渠道有效接觸大眾。本文探討通用對話式人工智慧(CAI)的角色,強調其在健康訊息傳遞中的潛力,特別是透過AI驅動的訊息平台提供個性化的健康介入。針對COVID-19疫情的案例研究顯示CAI在健康信息傳播上的有效性。我們建議公共衛生機構與AI技術合作,同時解決偏見、錯誤信息及隱私等挑戰,展望未來CAI將提升健康溝通的可靠性。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

當前社會對科學的信任度下降,公民參與也減少,這可能影響公共健康和健康公平的研究。為了應對這些挑戰,社區為中心的公民科學應用可以提升公眾參與,並成為AI探索的重要領域。我們探討了幾個有潛力的AI應用,如對話式大型語言模型和數據分析工具,這些都能惠及社區。不過,AI在社區研究中的使用也帶來風險,我們也討論了如何減輕這些技術可能引發的倫理和社會挑戰。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI

這項研究探討AI生成的健康資訊與CDC提供的資訊差異,重點在情感、可讀性和品質。透過語言期待理論,分析了不同來源內容對可信度的影響。比較了CDC和ChatGPT 3.5各20條資訊,並進行品質評估。 主要發現包括: 1. **情感**:ChatGPT的內容較多負面情感,常出現憤怒、悲傷和厭惡的詞彙。 2. **可讀性**:CDC的訊息更易讀,ChatGPT則需較高閱讀年級。 3. **品質**:CDC的資訊在品質評估中得分較高,顯示更可靠。 研究強調公共衛生專業人員需教育大眾理解AI生成健康資訊的複雜性,並建議健康素養計畫應涵蓋這類內容的品質與可讀性討論。 PubMed DOI