原始文章

這項研究發現,ChatGPT-4.0在回答大腸鏡檢查前常見問題時,內容準確且符合醫學指引,有潛力成為病人衛教的好幫手。不過,還需要更多實際測試和不同問題的驗證,才能確定它的實用性。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI

這項研究評估了ChatGPT-4在減重手術領域的可行性,針對30個相關問題進行分析。三位專家評估後發現,ChatGPT-4的表現不錯,50%的回答與臨床指導方針高度一致。不過,研究也指出資訊可能過時、缺乏具體性,且有時回答結構不佳。總體來看,ChatGPT-4可作為患者教育和醫療支持的輔助工具,但仍需克服管理複雜情境、確保資訊更新及解決倫理問題等挑戰。未來研究應著重於改善其應用及整合進臨床實踐。 PubMed DOI

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI

結直腸癌是美國第三常見的癌症,結腸鏡檢查是主要篩檢方法,但約25%的病例因準備不當影響檢查效果。人工智慧(AI)在醫學上越來越受重視,特別是在腸胃科。研究評估了ChatGPT生成的腸道準備提示,調查208位腸胃科醫生的看法。結果顯示,91%的醫生認為提示易懂,95%認為科學準確,66%願意與病人分享。這顯示AI在臨床溝通和效率上有潛力。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

研究顯示,ChatGPT-4在增強臨床決策方面具備潛力,特別是在處理Clostridioides difficile感染和結腸息肉監測等病症的臨床指引時。納入這些指引後,ChatGPT-4的回答準確性顯著提升,且始終與指引一致。它還能有效總結不同指引中的矛盾資訊,顯示出在複雜臨床情境中的實用性。這表明大型語言模型如ChatGPT-4可成為醫師的寶貴工具,提供快速且可靠的資訊,幫助改善病患護理,並推動人工智慧在醫療領域的應用。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究發現,ChatGPT-4o能準確、完整又清楚地回答病人關於大腸直腸癌篩檢的問題,專家和病人都給予高度評價,回答也很一致。顯示ChatGPT有潛力幫助病人了解篩檢資訊,提升參與意願。 PubMed DOI

這項研究比較了三種ChatGPT版本在回答幽門螺旋桿菌相關問題的表現。結果顯示,ChatGPT-4o答得最準確但穩定性較差,3.5版則最穩定但偶有錯誤。整體來說,AI聊天機器人能有效協助病患衛教,也能幫醫師提供可靠醫療資訊。 PubMed DOI