原始文章

將AI技術如ChatGPT應用於醫療領域,特別是在性別肯定乳房切除術(GAM)方面,顯示出改善病人教育的潛力。本研究評估了ChatGPT對GAM常見問題的回答質量與可讀性。結果顯示其可讀性達到大學或研究生水平,且準確性較高。然而,醫生指出回應有時過於一般化,可能包含錯誤資訊,並有病理化性別焦慮的風險。因此,雖然ChatGPT可作為有用資源,但仍需謹慎使用,並建議諮詢醫療專業人員以獲得個性化建議。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用 ChatGPT-4,一種人工智慧工具,來提供有關乳房隆乳的資訊。儘管它提供了全面的回答,但有時缺乏個人化,並提供過時的參考資料。這個工具展示了在患者教育方面的潛力,但需要改進以提高準確性和相關性。 PubMed DOI

研究發現,ChatGPT提供的攝護腺癌資訊雖多,但準確性和品質較差,建議使用時要謹慎。未來需深入研究不同主題和語言模型,以提升人工智慧生成的患者資訊品質。 PubMed DOI

研究發現ChatGPT在教育患者方面表現良好,回答問題準確且有幫助,78.6%與官方資料相符。雖然是有用的教育工具,但醫護人員需留意患者可能誤解資訊。总体而言,ChatGPT對患者有正面幫助。 PubMed DOI

AI在整形外科領域廣泛應用,像ChatGPT這樣的聊天機器人為患者提供資訊。研究發現ChatGPT在乳房手術相關資訊的品質不錯,但存在些許偏見。AI可幫助患者了解醫療程序,但應視為醫生的輔助。 PubMed DOI

ChatGPT在生成病人諮詢材料方面受到關注,但其有效性尚待評估。一項研究測試了ChatGPT在五種手術程序的圍手術期諮詢及併發症的表現。結果顯示,ChatGPT能提供全面的手術前諮詢要點,但對於手術併發症的準確性則不盡理想。與線上教育資源相比,ChatGPT的回應在適用性和病人教育材料評估中表現良好。總體而言,雖然ChatGPT能處理基本諮詢,但在複雜併發症方面仍有待加強。 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI

這項研究評估了ChatGPT3.5和ChatGPT4在生成乳房篩檢病人資訊表的表現。雖然兩者提供了一些有用資訊,但準確性和清晰度都不理想。ChatGPT4在可理解性和可行性上表現較好,但仍有明顯遺漏。整體而言,這兩個版本被視為不可靠的健康資訊來源,特別是對健康素養較低的人士。這引發了對乳房篩檢參與可能造成的負面影響的擔憂,並強調醫療教育者需針對AI工具的錯誤資訊進行處理。 PubMed DOI

這項研究評估了ChatGPT在回答乳房重建問題上的有效性,並與醫療提供者進行比較。研究指出整形外科中病患與醫師溝通的挑戰,並探討了像ChatGPT這樣的人工智慧工具在改善互動上的潛力。 研究中向ChatGPT3、ChatGPT4、整形外科醫生及高級實踐提供者提出十個問題,評估其回應的準確性、同理心和可讀性。結果顯示,ChatGPT在同理心上得分較高,但可讀性低於醫療提供者,準確性則無顯著差異。 總體而言,研究建議ChatGPT可增強整形外科病患溝通,特別在同理心方面,但可讀性問題需改善,以達最佳效果。 PubMed DOI

這項研究評估了ChatGPT對乳腺癌常見問題的回答準確性,顯示它在病患教育中的潛力。研究收集了100個問題,專家評估後發現,大部分回答至少部分正確,但仍有5個完全錯誤、22個部分正確、42個正確但缺乏細節,只有31個高度準確。這顯示ChatGPT可作為輔助工具,但不準確的情況強調了專業監督的重要性。研究建議在醫療中整合AI工具,以增進病患與醫療提供者的互動,並確保資訊隨時更新。 PubMed DOI