原始文章

這項研究評估了ChatGPT在回答性傳播疾病(STDs)常見問題的效果。研究人員從25個政府網站收集了十個問題,並將其輸入ChatGPT進行評估。結果顯示,四個回應被評為優秀,六個需要稍微澄清,沒有一個被認為是不滿意的。這些回應也鼓勵使用者諮詢醫療專業人員。總體來看,雖然大部分答案需調整,但ChatGPT在性傳播疾病患者教育上顯示出潛力,建議未來可進一步研究如何將人工智慧融入公共衛生策略。 PubMed DOI


站上相關主題文章列表

人工智慧聊天機器人如ChatGPT對醫療資訊分享有顯著影響,尤其在泌尿學領域,像IPP手術。研究發現,ChatGPT在回答IPP手術問題時,有70%的回答優秀,20%令人滿意,只需少量澄清,但也有10%需要大量澄清。總體而言,ChatGPT在提供基於證據的資訊給患者方面有潛力,但仍有改進的空間。 PubMed DOI

研究發現ChatGPT在性傳染病(STIs)相關問題上提供了有用的資訊,包括風險因素、就醫取得、管理和預防措施等。然而,它未提及HIV預防性投藥。建議應更具體和個人化,強調檢測症狀、伴侶檢測和追蹤。ChatGPT可作為性健康診所的資源,但仍需人類醫師提供更貼心的護理。 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

針對ChatGPT在子宮頸癌方面的知識分析,對其回答常見問題的質量進行了評估。結果顯示,68個回答中有68個獲得高分GQS 5,無低分1或2。對53個問題中,62.3%符合歐洲相關機構的指導方針。其他評分中,GQS 4佔15.1%、GQS 3佔13.2%、GQS 2佔7.5%、GQS 1佔1.9%。整體來看,ChatGPT在回答子宮頸癌問題上表現不錯,但針對特定指導方針的問題時,準確性和質量有所下降。 PubMed DOI

這項研究評估了四款AI聊天機器人(ChatGPT、Gemini、Perplexity和Copilot)提供的性傳播疾病資訊的可靠性和可讀性。結果顯示,Perplexity和Copilot的資訊較為可靠,但所有聊天機器人的可讀性都未達到建議的六年級標準,對健康素養較低的使用者來說過於複雜。研究強調了改善AI健康資訊準確性和可及性的必要性,以便讓更多人能理解。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

這項研究發現,ChatGPT-4在回答男性性傳染性尿道炎相關問題時,無論是否告知對象是泌尿科醫師,準確率都很高(約77.5%~81%),而且告知對象並未提升表現。整體來說,ChatGPT-4在這類醫學問答上表現穩定,具備作為輔助工具的潛力。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI