原始文章

這項研究評估了ChatGPT 3.5和4.0版本在提供下頜骨骨折資訊的可讀性和準確性。隨著患者依賴生成式人工智慧查詢醫療資訊,評估其質量變得重要。研究發現兩個版本在可讀性和準確性上無顯著差異,但可讀性分數高於建議標準,顯示內容對一般患者來說可能過於複雜。此外,資訊準確性較低,許多回應含有不準確或缺乏必要資訊。總之,這項研究強調了生成式人工智慧在醫療資訊提供上的局限性,提醒患者和醫師需謹慎使用。 PubMed DOI


站上相關主題文章列表

研究發現使用ChatGPT-4在正顎手術諮詢中有幫助,提供重要資訊,但強調個人化醫療建議的重要性。雖然ChatGPT-4有用,但不能取代醫療專業人員的專業知識。它可支持患者和醫師應對手術複雜性。 PubMed DOI

研究比較了不同AI聊天機器人在正顎手術中的表現,結果顯示回答品質高、可靠性佳,但易讀性需高學歷。ChatGPT-4有創意,OpenEvidence則回答相似。儘管聊天機器人提供高品質答案,仍建議諮詢專業醫師。 PubMed DOI

研究發現,ChatGPT提供的醫學資訊品質不佳,甚至可能有危險。資訊品質高與醫師評分正相關。醫學人工智慧有潛力,但需改進準確性和可靠性。持續研究發展對提升醫療人工智慧應用、改善患者教育和知情同意流程至關重要。 PubMed DOI

研究發現,人工智慧回答第三顎齒拔除問題通常準確但太複雜。雖與臨床指南相符,卻無引文。醫護人員需教患者使用AI取得資訊,但仍應依情況考慮建議,因為經驗豐富的醫護人員仍是最佳資源。 PubMed DOI

ChatGPT在生成病人諮詢材料方面受到關注,但其有效性尚待評估。一項研究測試了ChatGPT在五種手術程序的圍手術期諮詢及併發症的表現。結果顯示,ChatGPT能提供全面的手術前諮詢要點,但對於手術併發症的準確性則不盡理想。與線上教育資源相比,ChatGPT的回應在適用性和病人教育材料評估中表現良好。總體而言,雖然ChatGPT能處理基本諮詢,但在複雜併發症方面仍有待加強。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI

這項研究比較了AI平台ChatGPT-4和Bard Gemini Advanced所生成的知情同意文件,與一名一年級口腔外科住院醫師撰寫的文件。經18位專家評估,結果顯示ChatGPT-4在準確性、完整性和可讀性上均優於Bard和人類撰寫的文件。具體來說,ChatGPT-4的得分在各項目中均為4,而Bard為3,人類同意書也為4。研究強調AI在知情同意過程中的潛力,但也指出需持續評估和整合患者反饋,以確保其在臨床上的有效性。 PubMed DOI

這項研究比較了ChatGPT-3.5、ChatGPT-4和Google Gemini在正顎手術問題上的回應可靠性,使用定量分析方法。研究團隊設計了64個問題的問卷,並由兩位專家評估這三個AI的回應。結果顯示,雖然ChatGPT-3.5的可靠性得分最高,但三者表現相似。特別是Google Gemini在提供醫生建議和圖形元素方面表現優異,這在其他兩者中並未出現。研究建議未來需進一步評估AI在醫療領域的能力。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI