原始文章

這項研究探討黑人及LGBQ+身份如何影響美國少數群體對HIV陰謀論的信念。調查顯示,黑人LGBQ+人士對這些陰謀論的信念比非黑人異性戀者更強烈。研究指出,對公共衛生機構的信任度低,以及對社交媒體和宗教領袖的依賴,與陰謀論信念有關。特別是,黑人LGBQ+人士對社交媒體的依賴與陰謀論信念的關聯性較弱。這些結果顯示在HIV議題上,需針對健康差異制定有效的溝通策略。 PubMed DOI


站上相關主題文章列表

全球對抗HIV取得進展,但仍有挑戰。為解決問題,需改善公共衛生,並考慮社會因素。醫護人員應瞭解情勢,持續努力對抗HIV。 PubMed DOI

研究發現使用AI平台ChatGPT回答HIV預防問題潛力大,但仍需注意包容性問題,如過時術語及社群代表性。在AI健康溝通中,準確性與包容性並重,以確保資訊有效傳達。 PubMed DOI

研究探討了使用像ChatGPT這樣的AI聊天機器人來教育黑人婦女有關性健康的議題,專注於HIV預防和PrEP。研究調查了ChatGPT提供的資訊是否因種族而異,以及這個平台如何增進黑人婦女的公共衛生教育。研究揭示了ChatGPT根據種族而有不同回應的差異,並突顯了AI在促進黑人婦女性健康公平方面的潛力。 PubMed DOI

這項研究旨在改善黑人順性別女性在HIV暴露前預防(PrEP)使用的情況。儘管PrEP效果顯著,但這群人卻面臨護理不足、醫療不信任和污名化等障礙。護理師在推廣PrEP方面扮演重要角色,但也面臨資源不足的挑戰。研究計畫將分為探索、開發和評估三個階段,並透過AI聊天機器人促進溝通,確保數據隱私。此倡議希望減少PrEP護理障礙,創造無污名環境,並解決健康差異問題。研究結果可能成為解決健康不平等的可擴展模型。 PubMed DOI

這項研究探討了ChatGPT 3.5和4.0在提供HIV相關指導時,如何受到種族、族裔、性取向和性別認同的影響,並分析了對污名和歧視的提及。研究人員收集了300個回應,發現ChatGPT 4.0更能認同HIV相關的歧視,特別是針對黑人、西班牙裔、LGBTQ+和跨性別者,並涵蓋了肯定身份、專業護理和社會支持等主題。這些結果強調了評估AI技術在減少健康差異方面的重要性。 PubMed DOI

這項質性研究探討了健康專業人員對HIV血清差異的社會表徵,使用社會表徵理論及Jean Claude Abric的概念。研究在2020年10月至12月於巴西東北部進行,51位專業人員參與,透過自由聯想訪談及Iramuteq軟體分析。結果顯示,中央核心特徵與污名化及無知有關,關鍵詞包括偏見、恐懼等,顯示健康專業人員的理解受到負面影響,可能妨礙照護並加劇污名化。研究強調需加強專業人員的教育與訓練,以改善知識與實踐,促進更好的照護。 PubMed DOI

這項研究探討大型語言模型(LLMs)如ChatGPT與傳統搜尋引擎如Google在獲取健康資訊的使用情況。調查顯示,95.6%的人使用搜尋引擎查詢健康問題,但只有32.6%的人使用LLMs。男性、黑人和亞裔更常使用LLMs,且健康狀況較好和技術熟練度高的人也較常使用。 後續調查中,大多數LLM使用者仍偏好搜尋引擎,認為LLMs的實用性不如搜尋引擎,但對其負面感受較少,認為LLMs更具人性化。總體來看,搜尋引擎仍是主要工具,但LLMs的正面評價顯示其未來增長潛力。 PubMed DOI

這項研究強調在醫療保健中開發人工智慧工具時,必須納入多元病患的觀點,特別是針對種族和族裔少數群體。調查邀請了230名來自這些群體的參與者,結果顯示雖然許多人對人工智慧有基本了解,但對其在醫療和皮膚科的應用認識不足。參與者對醫療系統的信任程度因收入而異,且不少人對自己的數據被用於人工智慧開發感到不安,並認為應該獲得補償。這項研究強調納入多元聲音的重要性,以確保公平的醫療解決方案。 PubMed DOI

大型語言模型(LLMs)在心理健康評估中的應用日益普遍,但對其準確性和公平性仍有疑慮,特別是社會偏見和某些族群的代表性不足。本研究聚焦於厭食症和暴食症,特別是男性,尤其是同性戀男性在這方面的研究常被忽視。研究發現,ChatGPT-4在健康相關生活品質的評估中對男性存在顯著性別偏見,男性分數低於女性,卻缺乏實證支持。這些結果顯示LLM在心理健康評估中可能存在偏見,強調需理解並減少這些偏見,以確保診斷和治療的負責任使用。 PubMed DOI

這項研究評估了九個大型語言模型在醫療領域的表現,分析了1,000個急診案例的170萬個輸出結果。結果顯示,標記為黑人、無家可歸者或自我認同為LGBTQIA+的案例,常被建議進行緊急護理或心理健康評估,且有時缺乏臨床正當理由。相對而言,高收入案例則較常建議進行高級影像檢查。這些偏差可能加劇健康不平等,強調了評估和減輕LLMs偏見的重要性,以確保醫療建議的公平性。 PubMed DOI