原始文章

ChatGPT 回答疫苗猶豫問題時,內容大致正確且符合 CDC 指引,也能讓人安心。不過,細節像年齡建議、疫苗選擇或文化宗教疑慮講得比較少。若能補強這些面向,ChatGPT 有潛力成為提升疫苗信心的好幫手。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT-4在創造有說服力的疫苗接種訊息方面的效果,特別針對人類乳突病毒(HPV)疫苗。研究中有60名參與者,分析GPT-4生成的訊息與人類創作的訊息在說服力上的差異,重點在17個影響HPV疫苗接種的因素。結果顯示,GPT生成的訊息在不良反應和污名化認知上更具說服力,而人類生成的訊息則在傳達疫苗接種便利性上更有效。這顯示人工智慧,特別是ChatGPT,能成為公共衛生溝通的重要工具,對疫苗態度有正面影響。 PubMed DOI

這項研究評估了ChatGPT 3.5在回答骨肉瘤相關病人問題的有效性,重點在於可理解性和臨床適用性,涵蓋英語和西班牙語。主要發現包括: 1. **回應準確性**:ChatGPT的回應適合病人資訊平台,且無事實不準確的情況,顯示其可靠性。 2. **可理解性**:經評估後,英語回應的可理解性優於西班牙語,尤其在簡化文本後更為明顯。 3. **修改能力**:ChatGPT能根據需求調整回應,對提升健康素養特別有幫助。 4. **語言能力**:研究指出雙語醫療提供者不足,強調ChatGPT在改善病人理解上的重要性。 總結來說,ChatGPT 3.5能生成準確且適合的回應,但在簡化方面英語表現較佳,未來可望改進西班牙語的部分。 PubMed DOI

這項研究探討了ChatGPT在提供性別肯定手術(GAS)患者醫療資訊的角色。研究比較了經驗醫生與ChatGPT的回應,結果顯示ChatGPT的回應雖然較複雜,但在可靠性、品質和可理解性上表現良好。它提供了詳細且相關的資訊,強調了諮詢醫療提供者及處理心理層面的重要性。雖然ChatGPT在患者教育上有潛力,但因為其較高的閱讀水平和缺乏透明參考文獻,使用時仍需謹慎。總體來說,ChatGPT在提升GAS患者教育方面顯示出潛力,但仍需改進。 PubMed DOI

這項研究聚焦於VaxBot-HPV,一個旨在提升健康素養並促進HPV疫苗接種的聊天機器人。研究團隊從451份文件中建立知識庫,提取202對問答,並由GPT-4生成39個額外問題進行訓練和測試。評估三個模型後,VaxBot-HPV在答案的相關性(0.85)和真實性(0.97)上表現最佳。微調模型有助於減少錯誤資訊,提供更準確的回應,增強用戶信任。研究顯示大型語言模型在醫療保健中的潛力,建議可改善醫學教育和公共衛生溝通。 PubMed DOI

這項初步研究探討了使用ChatGPT來提升義大利疫苗接種同意書的可讀性。研究評估了三種同意書:標準表格(A)、完全由ChatGPT生成的表格(B),以及由ChatGPT修改的標準表格(C)。結果顯示,表格A和C在適當性和整體評價上表現最佳,均獲得4.0的中位數分數,而表格B則只有3.0。研究指出,雖然ChatGPT能改善醫療溝通,但最佳效果需結合人類專業知識與監督。 PubMed DOI

這項研究評估了ChatGPT在回答過敏學問題的表現,顯示它對於等待專科門診的病患來說是一個方便的資源。研究針對120個問題進行評估,結果顯示ChatGPT的整體準確性不錯(平均4.1分),但在兒科問題的完整性和人性化程度上較低。特別是與兒童食物過敏相關的錯誤,可能會造成生命危險。這強調了ChatGPT在提供過敏學建議上的局限性,並建議諮詢專業醫師的重要性。調整AI工具以適應特定醫療情境,可能會提升其臨床有效性。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

這項研究發現,當 HIV 諮詢問題加入種族、性別或性傾向等社會背景時,ChatGPT 給不同族群的建議會有落差,部分回應不夠完整,也缺乏文化敏感度和相關資源。這顯示 AI 回應有偏見,未來需納入更多元資料,才能確保公共衛生資訊的公平性。 PubMed DOI

這項研究發現,ChatGPT-4o能準確、完整又清楚地回答病人關於大腸直腸癌篩檢的問題,專家和病人都給予高度評價,回答也很一致。顯示ChatGPT有潛力幫助病人了解篩檢資訊,提升參與意願。 PubMed DOI