原始文章

這項研究比較 GPT-3.5 和 Bard 兩款免費 AI,在大腸鏡篩檢間隔建議上的表現。結果發現 GPT-3.5 準確度雖然比 Bard 高,但兩者和專家指引的符合度都不理想。目前這些 AI 還不適合單獨用來給大腸鏡篩檢建議。 PubMed DOI


站上相關主題文章列表

這項研究評估了AI工具ChatGPT和Google Gemini在製作腹部超音波、CT掃描和MRI病患教育手冊的效果。研究於2024年6月進行,持續一週,分析了字數、句子數、可讀性和內容可靠性等指標。結果顯示,除了ChatGPT的字數和年級水平較高外,兩者在大多數指標上差異不大。兩個工具的內容在可讀性和可靠性上相似,但字數和複雜度的差異顯示需要更好地調整內容,以符合不同病患的識字能力。 PubMed DOI

結直腸癌是美國第三常見的癌症,結腸鏡檢查是主要篩檢方法,但約25%的病例因準備不當影響檢查效果。人工智慧(AI)在醫學上越來越受重視,特別是在腸胃科。研究評估了ChatGPT生成的腸道準備提示,調查208位腸胃科醫生的看法。結果顯示,91%的醫生認為提示易懂,95%認為科學準確,66%願意與病人分享。這顯示AI在臨床溝通和效率上有潛力。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

這項研究發現,ChatGPT-4在大腸直腸癌治療建議上,和多專科團隊(MDT)有七到八成以上的一致性。年紀大或病情複雜的病人,建議較容易不一樣。整體來說,ChatGPT有機會成為臨床決策的輔助工具,和專業團隊的建議相當接近。 PubMed DOI

這項研究評估ChatGPT在診斷急性闌尾炎、膽囊炎和憩室炎的表現,發現它雖然整體表現不錯,但在膽囊炎和憩室炎的診斷準確度還是比不上臨床醫師。有些症狀會讓AI搞混,導致誤判。總結來說,ChatGPT在資源有限的情況下可以當作輔助工具,但遇到複雜病例還需要再加強。 PubMed DOI

這項研究發現,ChatGPT-4o能準確、完整又清楚地回答病人關於大腸直腸癌篩檢的問題,專家和病人都給予高度評價,回答也很一致。顯示ChatGPT有潛力幫助病人了解篩檢資訊,提升參與意願。 PubMed DOI

這項研究比較四款AI聊天機器人在外科選擇題的表現,發現Copilot表現最佳,ChatGPT次之,Bard和Medical Chat較弱。各專科表現有落差,尤其耳鼻喉科和腸胃科最明顯。所有AI在診斷題的表現都優於處置題,Bard差異最大。結果顯示AI在外科教育和臨床應用各有優缺點。 PubMed DOI

這項研究比較了三種ChatGPT版本在回答幽門螺旋桿菌相關問題的表現。結果顯示,ChatGPT-4o答得最準確但穩定性較差,3.5版則最穩定但偶有錯誤。整體來說,AI聊天機器人能有效協助病患衛教,也能幫醫師提供可靠醫療資訊。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答大腸鏡檢查前常見問題時,內容準確且符合醫學指引,有潛力成為病人衛教的好幫手。不過,還需要更多實際測試和不同問題的驗證,才能確定它的實用性。 PubMed DOI