原始文章

這項研究探討黑人及LGBQ+身份如何影響美國少數群體對HIV陰謀論的信念。調查顯示,黑人LGBQ+人士對這些陰謀論的信念比非黑人異性戀者更強烈。研究指出,對公共衛生機構的信任度低,以及對社交媒體和宗教領袖的依賴,與陰謀論信念有關。特別是,黑人LGBQ+人士對社交媒體的依賴與陰謀論信念的關聯性較弱。這些結果顯示在HIV議題上,需針對健康差異制定有效的溝通策略。 PubMed DOI


站上相關主題文章列表

印尼的HIV疫情快速增長,面臨地理和社會文化挑戰。研究探討將大型語言模型(LLMs)與遠程醫療(TH)結合,以提升護理質量和降低成本。根據PRISMA-ScR指導方針,回顧2017至2024年間的文獻,發現12項研究符合標準。雖然已有關於電子健康干預的研究,但LLM與TH整合的文獻仍不足。提出的藍圖強調在分診、病史採集和病人教育中安全整合LLM-TH,顯示其在印尼HIV護理中的潛力,儘管面臨技術可及性和實證驗證的挑戰。 PubMed DOI

這項研究探討大型語言模型(LLMs)如ChatGPT與傳統搜尋引擎如Google在獲取健康資訊的使用情況。調查顯示,95.6%的人使用搜尋引擎查詢健康問題,但只有32.6%的人使用LLMs。男性、黑人和亞裔更常使用LLMs,且健康狀況較好和技術熟練度高的人也較常使用。 後續調查中,大多數LLM使用者仍偏好搜尋引擎,認為LLMs的實用性不如搜尋引擎,但對其負面感受較少,認為LLMs更具人性化。總體來看,搜尋引擎仍是主要工具,但LLMs的正面評價顯示其未來增長潛力。 PubMed DOI

這項研究強調在醫療保健中開發人工智慧工具時,必須納入多元病患的觀點,特別是針對種族和族裔少數群體。調查邀請了230名來自這些群體的參與者,結果顯示雖然許多人對人工智慧有基本了解,但對其在醫療和皮膚科的應用認識不足。參與者對醫療系統的信任程度因收入而異,且不少人對自己的數據被用於人工智慧開發感到不安,並認為應該獲得補償。這項研究強調納入多元聲音的重要性,以確保公平的醫療解決方案。 PubMed DOI

這項研究分析了四個大型語言模型(LLMs)在為HIV患者生成出院指示時是否存在種族和族裔偏見。研究者改變患者的種族/族裔,並檢視生成的指示在情感、主觀性、可讀性等方面的差異。結果顯示,只有GPT-4在實體計數上有統計意義的差異,但經調整後並無顯著差異。總體來看,這些模型在語言和可讀性上對種族/族裔表現出相對一致性。研究者呼籲標準化評估方法,並建議進一步研究以探討對健康照護的影響。 PubMed DOI

大型語言模型(LLMs)在心理健康評估中的應用日益普遍,但對其準確性和公平性仍有疑慮,特別是社會偏見和某些族群的代表性不足。本研究聚焦於厭食症和暴食症,特別是男性,尤其是同性戀男性在這方面的研究常被忽視。研究發現,ChatGPT-4在健康相關生活品質的評估中對男性存在顯著性別偏見,男性分數低於女性,卻缺乏實證支持。這些結果顯示LLM在心理健康評估中可能存在偏見,強調需理解並減少這些偏見,以確保診斷和治療的負責任使用。 PubMed DOI

這項研究探討使用者對大型語言模型(LLM)驅動的聊天機器人(如ChatGPT)提供的健康資訊的看法,與傳統線上資源相比。結果顯示,98%的參與者仍主要依賴搜尋引擎尋找健康資訊,只有21.2%使用聊天機器人。大多數人尋求健康狀況資訊,但對於用藥建議和自我診斷的需求較低。雖然LLM聊天機器人逐漸受到年輕族群的青睞,但使用者在遵循建議時仍較為謹慎。研究強調提高準確性和透明度對於健康資訊的安全性至關重要。 PubMed DOI

這項研究評估了九個大型語言模型在醫療領域的表現,分析了1,000個急診案例的170萬個輸出結果。結果顯示,標記為黑人、無家可歸者或自我認同為LGBTQIA+的案例,常被建議進行緊急護理或心理健康評估,且有時缺乏臨床正當理由。相對而言,高收入案例則較常建議進行高級影像檢查。這些偏差可能加劇健康不平等,強調了評估和減輕LLMs偏見的重要性,以確保醫療建議的公平性。 PubMed DOI

這項研究發現,當 HIV 諮詢問題加入種族、性別或性傾向等社會背景時,ChatGPT 給不同族群的建議會有落差,部分回應不夠完整,也缺乏文化敏感度和相關資源。這顯示 AI 回應有偏見,未來需納入更多元資料,才能確保公共衛生資訊的公平性。 PubMed DOI

研究人員用坦尚尼亞HIV診所的資料微調大型語言模型(LLM),來預測哪些病人可能會中斷治療或不遵從醫囑。這個模型比傳統方法更準確,能找出多數高風險病人,還能給出有用的解釋。臨床醫師大多認同模型的判斷。若實際應用,有助於精準介入、提升病人留診率,推動全球HIV治療目標。 PubMed DOI

研究比較多個AI平台(如ChatGPT 3.5/4.0、Google Bard/Gemini、HIV.gov Chatbot)在提供HIV藥物資訊的表現。結果發現,ChatGPT 4.0 回答最完整,HIV.gov Chatbot 最不全面。所有平台都建議諮詢醫師,且普遍認為HIV藥物有效。AI雖能提供方便的資訊,但個人問題還是要找專業醫療人員討論。未來可再研究AI在HIV預防和照護的應用。 PubMed DOI