原始文章

這項研究評估了AI聊天機器人,特別是ChatGPT,提供的乳腺癌和前列腺癌篩檢資訊的準確性,並與美國預防服務工作組(USPSTF)的指導方針進行比較。研究發現,71.7%的標準與USPSTF建議一致,但有15%的資訊不準確或不相關,特別是在針對年長者的回應中。雖然ChatGPT的資訊大致符合官方指導,但仍有顯著差距,提醒使用者在參考AI生成的癌症篩檢資訊時,應諮詢專業醫療人員。 PubMed DOI


站上相關主題文章列表

研究用DISCERN標準評估AI聊天機器人對常見癌症問題回答的品質,發現ChatGPT比Bing AI表現較好。AI在醫療上有潛力,但仍需改進,尤其在癌症等重要領域,以避免給患者和家人帶來誤解或壓力。 PubMed DOI

研究評估了ChatGPT等人工智慧模型在大腸直腸癌篩檢患者教育和溝通上的應用。結果顯示,ChatGPT和YouChat™回答較為適當,但也有不可靠之處。建議患者在接受模型建議前,應諮詢醫師以獲得更多專業意見。 PubMed DOI

研究測試了 ChatGPT 在為 75 歲以上乳癌篩檢提供建議的表現。結果顯示,ChatGPT 對大部分問題的回應適當,但也有不適當或不可靠的情況。雖然 ChatGPT 有提供正確醫療資訊的潛力,但仍需醫師監督以避免錯誤回答。 PubMed DOI

研究比較了ChatGPT在回答攝護腺癌篩檢問題時的表現,發現GPT-4優於GPT-3.5,易讀性也更高。提示影響回應質量,尤其是清晰度。 PubMed DOI

一項研究評估了聊天機器人ChatGPT在卵巢癌管理方面的表現,並與國家綜合癌症網絡(NCCN)的指引進行比較。研究生成了10個問題,涵蓋風險因素、手術及醫療管理等。結果顯示,NCCN的準確且完整回答為48%,未提示的GPT為64%,經過提示的GPT為66%。GPT-4在風險因素和手術管理上表現優於NCCN,但在醫療管理上較弱。雖然不準確回答比例低,但使用聊天機器人時仍需謹慎。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI

子宮頸癌和乳腺癌對女性健康影響深遠,常因污名化和錯誤資訊導致診斷延遲。為評估ChatGPT對這些癌症的回答準確性,進行了一項線上調查,並與十位醫生的回答進行比較。結果顯示,ChatGPT在準確性上表現優於醫生,但在一致性和可讀性方面仍有待加強。整體而言,ChatGPT在提供初步資訊上具潛力,但未來需改善其可靠性和一致性,以更好地協助有健康問題的個體。 PubMed DOI

這項研究評估了ChatGPT3.5和ChatGPT4在生成乳房篩檢病人資訊表的表現。雖然兩者提供了一些有用資訊,但準確性和清晰度都不理想。ChatGPT4在可理解性和可行性上表現較好,但仍有明顯遺漏。整體而言,這兩個版本被視為不可靠的健康資訊來源,特別是對健康素養較低的人士。這引發了對乳房篩檢參與可能造成的負面影響的擔憂,並強調醫療教育者需針對AI工具的錯誤資訊進行處理。 PubMed DOI

這項研究評估了多款AI聊天機器人在提供前列腺癌(PrCA)決策資訊的效果,包括ChatGPT-3.5、ChatGPT-4.0、Microsoft Copilot等。研究重點在於回應的準確性、完整性、可讀性和可信度,特別針對低識字率族群及高風險的非裔美國男性。結果顯示,雖然資訊準確,但完整性和可讀性各有差異。Microsoft Copilot Pro在標準篩檢問題上表現最佳,而Microsoft Copilot則在低識字率回應中表現突出。總體來說,AI聊天機器人可作為前列腺癌篩檢資訊的輔助資源,但仍需醫療專業指導。 PubMed DOI