原始文章

這項研究發現,ChatGPT-4o能準確、完整又清楚地回答病人關於大腸直腸癌篩檢的問題,專家和病人都給予高度評價,回答也很一致。顯示ChatGPT有潛力幫助病人了解篩檢資訊,提升參與意願。 PubMed DOI


站上相關主題文章列表

ChatGPT3.5是一款擁有為肝病患者提供諮詢潛力的人工智慧聊天機器人。研究發現,在回答意大利MASLD相關問題時,其準確性表現良好,但完整性和易懂性較低。專家評估顯示身體活動問題得分最高,專科轉診問題得分最低。語言對結果影響不大。ChatGPT在意大利語中為MASLD患者提供諮詢有潛力,但在某些方面仍需改進。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT在回答結腸直腸癌篩檢問題的有效性,旨在提升病患的認知與遵循篩檢計畫的意願。研究中,專家和非專家對ChatGPT的回答進行評分,結果顯示專家對準確性的評分為4.8(滿分6分),而完整性則較低,為2.1(滿分3分)。病患對回答的評價則普遍正面,認為其完整性、可理解性和可信度高達97-100%。整體而言,ChatGPT在提供CRC篩檢資訊上表現良好,顯示出提升病患認知的潛力。 PubMed DOI

針對ChatGPT在子宮頸癌方面的知識分析,對其回答常見問題的質量進行了評估。結果顯示,68個回答中有68個獲得高分GQS 5,無低分1或2。對53個問題中,62.3%符合歐洲相關機構的指導方針。其他評分中,GQS 4佔15.1%、GQS 3佔13.2%、GQS 2佔7.5%、GQS 1佔1.9%。整體來看,ChatGPT在回答子宮頸癌問題上表現不錯,但針對特定指導方針的問題時,準確性和質量有所下降。 PubMed DOI

這項研究評估了ChatGPT3.5和ChatGPT4在生成乳房篩檢病人資訊表的表現。雖然兩者提供了一些有用資訊,但準確性和清晰度都不理想。ChatGPT4在可理解性和可行性上表現較好,但仍有明顯遺漏。整體而言,這兩個版本被視為不可靠的健康資訊來源,特別是對健康素養較低的人士。這引發了對乳房篩檢參與可能造成的負面影響的擔憂,並強調醫療教育者需針對AI工具的錯誤資訊進行處理。 PubMed DOI

這項研究評估了ChatGPT-4在結直腸癌病人教育的效果。研究中提出八個相關問題,並由結直腸外科醫生評估其回應的準確性、安全性和有效性。結果顯示,ChatGPT-4提供的資訊通常準確且安全,品質在某些方面評為「非常好」,但在其他方面則為「尚可」。不過,資訊的可讀性較複雜,需要較高的教育程度才能理解。結論指出,雖然ChatGPT-4是個有用的病人教育工具,但在臨床應用前,仍需改善可讀性和上下文理解能力。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

研究發現,ChatGPT在回答中國病患常見的食道癌問題時,預防和診斷類的答案較正確,但治療和預後相關的答案有三成多部分錯誤。雖然沒有完全錯誤的回答,但在治療建議上還不夠可靠,建議未來需再改進才能推薦給病患使用。 PubMed DOI