原始文章

ChatGPT 回答疫苗猶豫問題時,內容大致正確且符合 CDC 指引,也能讓人安心。不過,細節像年齡建議、疫苗選擇或文化宗教疑慮講得比較少。若能補強這些面向,ChatGPT 有潛力成為提升疫苗信心的好幫手。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT在提供乳腺癌健康資訊的有效性,並與CDC網站進行比較。研究使用技術接受模型,強調易用性和有用性,並針對患者和公眾的常見問題進行質性分析,聚焦於定義、預防、診斷和治療四個主題。結果顯示,ChatGPT使用友好且提供準確資訊,來源可靠,能增強乳腺癌知識的獲取。不過,它缺乏問責性,回應也可能隨時間變化。總體而言,ChatGPT在傳播乳腺癌資訊和提升公眾認識方面顯示出潛力。 PubMed DOI

HPV疫苗對預防相關疾病非常重要。本研究聚焦於VaxBot-HPV,一個旨在提升健康素養並鼓勵接種疫苗的聊天機器人。我們建立了一個包含451份資料的知識庫,並提取202對問答進行訓練。研究評估了GPT-3.5、VaxBot-HPV和GPT-4三個模型,結果顯示VaxBot-HPV在答案的相關性和真實性上均優於其他模型,顯示出先進語言模型在醫療聊天機器人開發中的有效性,能提升醫學教育和公共衛生溝通。 PubMed DOI

這項研究評估了兩款先進的AI聊天機器人,ChatGPT-4.0和Google Gemini Advanced,針對疫苗相關問題的回答準確性,並與世界衛生組織(WHO)進行比較。研究提出38個疫苗接種的迷思問題,結果顯示兩者都提供了36個正確回答,達到94.7%的高一致性。雖然有少數差異,但不具危害性,且都建議使用者查詢可靠來源如CDC和WHO或諮詢醫療專業人員。研究顯示這些AI聊天機器人能有效輔助健康溝通,提升健康素養,並解決疫苗猶豫問題,但仍需持續研究以確保其準確性。 PubMed DOI

在數位時代,像ChatGPT這樣的大型語言模型逐漸成為健康照護資訊的重要來源,特別是對於面臨保險和語言障礙的人。雖然這些模型的使用日益普遍,但提供的資訊質量卻不一。這項研究比較了ChatGPT和CDC在英語及西班牙語中提供的疫苗接種資訊,強調健康公平的重要性。結果顯示,兩者的資訊準確且易於理解,但可讀性常超過建議水平,特別是ChatGPT的英語回應。研究指出,改善可讀性和語言公平性對於服務多元族群至關重要。 PubMed DOI

這項研究評估了ChatGPT在回答性傳播疾病(STDs)常見問題的效果。研究人員從25個政府網站收集了十個問題,並將其輸入ChatGPT進行評估。結果顯示,四個回應被評為優秀,六個需要稍微澄清,沒有一個被認為是不滿意的。這些回應也鼓勵使用者諮詢醫療專業人員。總體來看,雖然大部分答案需調整,但ChatGPT在性傳播疾病患者教育上顯示出潛力,建議未來可進一步研究如何將人工智慧融入公共衛生策略。 PubMed DOI

這項研究探討了ChatGPT-4在創造有說服力的疫苗接種訊息方面的效果,特別針對人類乳突病毒(HPV)疫苗。研究中有60名參與者,分析GPT-4生成的訊息與人類創作的訊息在說服力上的差異,重點在17個影響HPV疫苗接種的因素。結果顯示,GPT生成的訊息在不良反應和污名化認知上更具說服力,而人類生成的訊息則在傳達疫苗接種便利性上更有效。這顯示人工智慧,特別是ChatGPT,能成為公共衛生溝通的重要工具,對疫苗態度有正面影響。 PubMed DOI

這項研究探討了ChatGPT在提供性別肯定手術(GAS)患者醫療資訊的角色。研究比較了經驗醫生與ChatGPT的回應,結果顯示ChatGPT的回應雖然較複雜,但在可靠性、品質和可理解性上表現良好。它提供了詳細且相關的資訊,強調了諮詢醫療提供者及處理心理層面的重要性。雖然ChatGPT在患者教育上有潛力,但因為其較高的閱讀水平和缺乏透明參考文獻,使用時仍需謹慎。總體來說,ChatGPT在提升GAS患者教育方面顯示出潛力,但仍需改進。 PubMed DOI

這項研究聚焦於VaxBot-HPV,一個旨在提升健康素養並促進HPV疫苗接種的聊天機器人。研究團隊從451份文件中建立知識庫,提取202對問答,並由GPT-4生成39個額外問題進行訓練和測試。評估三個模型後,VaxBot-HPV在答案的相關性(0.85)和真實性(0.97)上表現最佳。微調模型有助於減少錯誤資訊,提供更準確的回應,增強用戶信任。研究顯示大型語言模型在醫療保健中的潛力,建議可改善醫學教育和公共衛生溝通。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

這項研究發現,當 HIV 諮詢問題加入種族、性別或性傾向等社會背景時,ChatGPT 給不同族群的建議會有落差,部分回應不夠完整,也缺乏文化敏感度和相關資源。這顯示 AI 回應有偏見,未來需納入更多元資料,才能確保公共衛生資訊的公平性。 PubMed DOI