原始文章

針對ChatGPT在子宮頸癌方面的知識分析,對其回答常見問題的質量進行了評估。結果顯示,68個回答中有68個獲得高分GQS 5,無低分1或2。對53個問題中,62.3%符合歐洲相關機構的指導方針。其他評分中,GQS 4佔15.1%、GQS 3佔13.2%、GQS 2佔7.5%、GQS 1佔1.9%。整體來看,ChatGPT在回答子宮頸癌問題上表現不錯,但針對特定指導方針的問題時,準確性和質量有所下降。 PubMed DOI


站上相關主題文章列表

研究發現,ChatGPT提供的攝護腺癌資訊雖多,但準確性和品質較差,建議使用時要謹慎。未來需深入研究不同主題和語言模型,以提升人工智慧生成的患者資訊品質。 PubMed DOI

研究發現ChatGPT在回答子宮頸癌問題時,53.1%的答案正確且全面。對預防和生活品質議題的準確性較高,但在診斷和治療方面則有改進空間。ChatGPT可作為子宮頸癌資訊的有用來源,但在醫療建議上還有待提升。 PubMed DOI

研究評估了ChatGPT在回答頭頸癌問題時的表現,結果顯示86.4%的回答準確,且沒有完全錯誤。不同類別問題表現均佳,且可重現性高達94.1%。建議ChatGPT可成為患者和醫師重要資訊來源,並在進一步改進後支援臨床決策。 PubMed DOI

研究發現ChatGPT在回答良性攝護腺增生(BPH)和攝護腺癌問題時表現準確,但對歐洲泌尿學會指南建議的問題稍有不足。ChatGPT的回答滿意度高,未來持續改進後,或許在醫療領域有更多應用價值。 PubMed DOI

研究評估了使用參考書回答結腸直腸癌相關問題的人工智慧模型ChatGPT。結果顯示ChatGPT回答可重複,但全面性和準確性不如專家。在放射療法和疼痛控制方面表現好,但在基本資訊和手術方面較弱。ChatGPT有潛力,但仍需進步才能達到專家水準,提供病患更完整的教育資訊。 PubMed DOI

一項研究評估了聊天機器人ChatGPT在卵巢癌管理方面的表現,並與國家綜合癌症網絡(NCCN)的指引進行比較。研究生成了10個問題,涵蓋風險因素、手術及醫療管理等。結果顯示,NCCN的準確且完整回答為48%,未提示的GPT為64%,經過提示的GPT為66%。GPT-4在風險因素和手術管理上表現優於NCCN,但在醫療管理上較弱。雖然不準確回答比例低,但使用聊天機器人時仍需謹慎。 PubMed DOI

這項研究評估了ChatGPT對肺癌問題的回答可讀性,涵蓋定義、成因、風險因素、診斷、治療和預後等。研究者向ChatGPT提出80個問題,並用不同的可讀性標準來評估其回答。結果顯示,這些回應的可讀性屬於中等,通常在「大學」水平或以上,對患者來說不易理解。研究建議未來的ChatGPT版本應更針對不同教育背景和年齡層,以提升醫療資訊的可及性。 PubMed DOI

這項研究評估了ChatGPT對於有關人類乳突病毒(HPV)陽性口咽癌的回答準確性。研究人員分析了美國癌症協會的討論,並用ChatGPT 3.5詢問11個常見問題。結果顯示,ChatGPT在HPV感染和傳播的問題上準確率分別為84.4%和90.6%,但對於HPV疫苗的回答準確性較低,只有62.5%和75%。在循環腫瘤DNA檢測方面,準確率更低,僅12.5%。結論指出,ChatGPT可作為了解工具,但不應取代專業醫療建議,病人應諮詢外科醫生以獲得準確資訊。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

子宮頸癌和乳腺癌對女性健康影響深遠,常因污名化和錯誤資訊導致診斷延遲。為評估ChatGPT對這些癌症的回答準確性,進行了一項線上調查,並與十位醫生的回答進行比較。結果顯示,ChatGPT在準確性上表現優於醫生,但在一致性和可讀性方面仍有待加強。整體而言,ChatGPT在提供初步資訊上具潛力,但未來需改善其可靠性和一致性,以更好地協助有健康問題的個體。 PubMed DOI