原始文章

這項研究評估了ChatGPT生成的胃腸科資訊的質量與可讀性,特別針對對話式和定義式問題的回應。三位認證的胃腸科醫生使用5點李克特量表評估回應的適當性,涵蓋六個類別。結果顯示,44%的對話式回應和69%的定義式回應被認為適當,但與胃腸急症相關的回應則全都不適當。可讀性評估顯示這些內容需大學程度的閱讀能力。總體而言,雖然ChatGPT能生成一般適合的回應,但在適當性和可讀性上仍需改進,才能成為可靠的醫療資訊來源。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-4提供的玻璃體視網膜手術資訊準確但難懂,建議不完全依賴AI。需加強專業領域資訊的可信度與易讀性,並了解AI在健康建議上的限制。 PubMed DOI

研究評估ChatGPT回答腸胃健康問題的表現,使用110個真實問題,由胃腸科醫生評分。ChatGPT有時回答準確,但不全面。在治療方面得分約3.9,症狀方面得分3.4,診斷測試方面得分3.7。雖有潛力,仍需進一步提升可靠性。醫病雙方了解ChatGPT的能力與限制,將有助於未來應用。 PubMed DOI

這項研究評估了ChatGPT使用DISCERN工具評估關於勃起功能障礙的衝擊波治療的線上內容的質量和易讀性的能力。結果顯示ChatGPT的評估與已建立的工具和人類評估者之間存在差異,顯示其目前能力的局限性。需要進一步研究探索人工智慧在客觀評估線上醫學內容中的角色。 PubMed DOI

2022年推出的聊天生成預訓練變壓器(ChatGPT)軟體迅速受到歡迎,並在醫學領域中有潛在應用,可用於改善病人教育和醫師與病人之間的溝通。本研究評估了ChatGPT在回答關於消化道疾病和結腸癌篩檢的常見病人問題時的準確性,以及它生成參考資料的能力,以及作為醫師教育工具的實用性。 PubMed DOI

討論了在胃腸學領域使用大型語言模型ChatGPT的優勢和限制。ChatGPT展現了在患者教育、診斷、疾病管理和研究查詢方面的潛力,可改善患者與醫師溝通,但處理複雜醫學問題和生成新內容方面仍有挑戰。強調AI工具在醫療保健領域持續改進、定制和道德規範的必要性,並突顯ChatGPT在胃腸學中的角色。 PubMed DOI

人工智慧如ChatGPT在醫療上應用,尤其對IBD患者。然而,應注意道德風險,患者不可過度依賴。評估準確性至關重要。ChatGPT有潛力但也有限制,需進一步研究改進,確保與醫學證據一致。 PubMed DOI

研究比較了ChatGPT和傳統網路搜尋對耳鼻喉科問題的表現,發現ChatGPT回答可讀性稍差但理解度高。在診斷問題上表現較佳,對事實或政策問題則無明顯差異。透過提示可提升ChatGPT回答的可讀性,顯示其在提供醫學資訊上有潛力,尤其在症狀診斷方面。 PubMed DOI

研究評估了四個熱門聊天機器人所提供的急性闌尾炎醫學資訊,發現品質不錯但易讀性有待提升。Bard是唯一提供可核實來源的,而Claude-2則來源虛構。總結來說,人工智慧在醫學教育上有潛力,尤其對於像是闌尾炎這樣的主題。 PubMed DOI

這項研究評估了ChatGPT對肺癌問題的回答可讀性,涵蓋定義、成因、風險因素、診斷、治療和預後等。研究者向ChatGPT提出80個問題,並用不同的可讀性標準來評估其回答。結果顯示,這些回應的可讀性屬於中等,通常在「大學」水平或以上,對患者來說不易理解。研究建議未來的ChatGPT版本應更針對不同教育背景和年齡層,以提升醫療資訊的可及性。 PubMed DOI

這項研究評估了ChatGPT在回答幽門螺旋桿菌感染問題的準確性,並與腸胃科醫生進行比較。研究選取了25個問題,測試了ChatGPT3.5和ChatGPT4,結果顯示兩者準確率均高達92%,超過腸胃科醫生的80%。ChatGPT4的回答更簡潔,且在診斷和胃癌預防方面表現優於ChatGPT3.5。整體來看,ChatGPT在H. pylori相關問題上展現高準確性,對患者和醫生皆具價值。 PubMed DOI