原始文章

這項研究評估了ChatGPT在回答結腸直腸癌篩檢問題的有效性,旨在提升病患的認知與遵循篩檢計畫的意願。研究中,專家和非專家對ChatGPT的回答進行評分,結果顯示專家對準確性的評分為4.8(滿分6分),而完整性則較低,為2.1(滿分3分)。病患對回答的評價則普遍正面,認為其完整性、可理解性和可信度高達97-100%。整體而言,ChatGPT在提供CRC篩檢資訊上表現良好,顯示出提升病患認知的潛力。 PubMed DOI


站上相關主題文章列表

研究發現使用ChatGPT在結腸鏡後管理上有潛力,醫師回饋正面。ChatGPT提供準確指引,有助於醫師做出明智決策,增進遵循度。未來可研究將ChatGPT整合至電子病歷,評估在不同醫療環境中的效益。 PubMed DOI

研究比較了標準的 GPT4 模型與一個具有相關篩檢指引的情境化模型,針對大腸直腸癌篩檢的結腸鏡檢查間隔提出建議。結果顯示情境化模型表現優異,能準確辨識高風險特徵,提供正確的檢查建議,並適當引用指引。這顯示ChatGPT經過改進後,可成為準確的醫師助手。 PubMed DOI

2022年,OpenAI推出chatGPT™,展現強大的推理與自然語言處理能力。研究分析了chatGPT™在制定結直腸癌管理計劃方面的表現,結果顯示其遵循腫瘤學原則,並考慮患者健康狀況。與多學科團隊決策一致率達86.7%,顯示高度一致性。仍需進一步研究驗證其在更大範圍內的有效性。 PubMed DOI

2022年推出的聊天生成預訓練變壓器(ChatGPT)軟體迅速受到歡迎,並在醫學領域中有潛在應用,可用於改善病人教育和醫師與病人之間的溝通。本研究評估了ChatGPT在回答關於消化道疾病和結腸癌篩檢的常見病人問題時的準確性,以及它生成參考資料的能力,以及作為醫師教育工具的實用性。 PubMed DOI

研究評估了ChatGPT等人工智慧模型在大腸直腸癌篩檢患者教育和溝通上的應用。結果顯示,ChatGPT和YouChat™回答較為適當,但也有不可靠之處。建議患者在接受模型建議前,應諮詢醫師以獲得更多專業意見。 PubMed DOI

研究評估了使用參考書回答結腸直腸癌相關問題的人工智慧模型ChatGPT。結果顯示ChatGPT回答可重複,但全面性和準確性不如專家。在放射療法和疼痛控制方面表現好,但在基本資訊和手術方面較弱。ChatGPT有潛力,但仍需進步才能達到專家水準,提供病患更完整的教育資訊。 PubMed DOI

研究評估了ChatGPT 3.5語言模型在大腸癌篩檢上的效用,結果顯示其準確率僅45%,且在不同情境下回答不一致。與醫師使用手機應用程式相比,模型表現顯著較差。研究建議需改進語言模型才能在臨床上更可靠。 PubMed DOI

這項研究評估了使用ChatGPT,一個大型語言模型,在炎症性腸道疾病中提供準確基於指引的結直腸異型增生篩檢建議的效果。結果顯示,ChatGPT的正確回應率很高,與消化內科醫師相似,顯示其在增進指引遵循方面具有潛力。需要進一步的研究和現實世界的評估來探索其全部能力。 PubMed DOI

研究比較了ChatGPT在回答攝護腺癌篩檢問題時的表現,發現GPT-4優於GPT-3.5,易讀性也更高。提示影響回應質量,尤其是清晰度。 PubMed DOI

這項研究指出,使用大型語言模型如GPT-4能有效提升公眾對口腔癌預防和早期檢測的認識。研究人員評估了GPT-4對60個口腔癌相關問題的回答能力,結果顯示標準版和自訂版的表現都不錯,大部分回答獲得高分。雖然兩者的中位數分數略有差異,但統計分析顯示表現無顯著差異。研究強調,GPT-4能提供有用的資訊,但仍無法取代醫療專業人士的專業知識,應作為輔助資源使用。 PubMed DOI