原始文章

這項研究評估了ChatGPT為乳房重建患者生成的問題質量,這些問題是患者可以詢問醫療提供者的。研究將這些問題與可信的線上來源進行比較,並由經驗豐富的外科醫生評估其可接受性及對知情同意和共同決策的貢獻。結果顯示,外科醫生對ChatGPT生成的問題評價很高,16個問題中有15個被認為可接受,且可能增強知情同意過程。值得注意的是,外科醫生難以辨識這些問題是AI生成的,顯示AI工具在準備諮詢上對患者有潛在好處。 PubMed DOI


站上相關主題文章列表

將AI技術如ChatGPT應用於醫療領域,特別是在性別肯定乳房切除術(GAM)方面,顯示出改善病人教育的潛力。本研究評估了ChatGPT對GAM常見問題的回答質量與可讀性。結果顯示其可讀性達到大學或研究生水平,且準確性較高。然而,醫生指出回應有時過於一般化,可能包含錯誤資訊,並有病理化性別焦慮的風險。因此,雖然ChatGPT可作為有用資源,但仍需謹慎使用,並建議諮詢醫療專業人員以獲得個性化建議。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI

這項研究探討了ChatGPT在提供性別肯定手術(GAS)患者醫療資訊的角色。研究比較了經驗醫生與ChatGPT的回應,結果顯示ChatGPT的回應雖然較複雜,但在可靠性、品質和可理解性上表現良好。它提供了詳細且相關的資訊,強調了諮詢醫療提供者及處理心理層面的重要性。雖然ChatGPT在患者教育上有潛力,但因為其較高的閱讀水平和缺乏透明參考文獻,使用時仍需謹慎。總體來說,ChatGPT在提升GAS患者教育方面顯示出潛力,但仍需改進。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Google Bard,對美學整形手術的回應可靠性,並與經驗豐富的外科醫生的見解進行比較。研究分析了三十位患者對皮膚填充劑、肉毒桿菌注射和眼瞼手術等問題的回應。十三位外科醫生根據可及性、準確性和實用性評估了LLM的回應。結果顯示,雖然聊天機器人的回應通常清晰且準確,但缺乏來源透明度限制了其可信度。研究建議在依賴LLMs作為主要信息來源時需謹慎,並呼籲進一步研究以增強其在醫療保健中的可靠性。 PubMed DOI

本研究評估了ChatGPT在回答有關肺癌手術的常見問題上的能力。專家小組對其十六個回答進行評估,結果顯示所有回答都令人滿意且基於證據,僅有少數需要小幅澄清。使用的語言也易於患者理解。結論是,ChatGPT能有效提供肺癌手術相關資訊,並可作為術前患者教育的有用工具。 PubMed DOI

這項研究探討了人工智慧技術,特別是ChatGPT和Gemini,在提供病人醫療資訊(PFI)方面的效果,專注於手部手術。研究發現,雖然AI生成的內容與傳統資料在準確性上無顯著差異,但手外科醫生認為傳統資料在全面性和清晰度上更佳。非醫療參與者則偏好AI生成的文本。整體來說,兩者的資訊都適合病人理解,但AI內容仍需改進以符合醫療標準。持續研究對於提升病人教育和術後護理溝通非常重要。 PubMed DOI

這項研究發現,ChatGPT-4o在協助乳房疾病手術規劃時,雖然能給出清楚且結構良好的建議,但在手術細節和風險評估上還不夠完善,且回答內容需要較高的閱讀理解能力。現階段它只能當作輔助工具,無法取代專業醫師,未來還需更多開發和專家驗證才能臨床應用。 PubMed DOI

這項研究發現,ChatGPT在回答四種常見整形外科手術的病人問題時,表現穩定且清楚,對衛教有幫助。不過,它無法給予個人化建議,建議還是要搭配專業醫師使用。未來可加強個人化功能,並在臨床實際測試。 PubMed DOI

這項研究比較了公開AI模型(如ChatGPT 4o)和自訂模型(Pyolo8)在乳房重建手術後對稱性評估的表現。兩者和專家評分有中到高度一致,ChatGPT在溝通上特別突出。不過,研究團隊認為AI不宜直接與病人互動,避免誤解和情緒問題。總結來說,AI能協助評估,但專業醫師的監督和同理心仍不可取代。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答先天性上肢差異常見問題時,大約一半答案正確且清楚,但有8%內容不夠好或可能誤導。回答內容深度和完整性不一,且很少建議諮詢專業醫師。總結來說,ChatGPT提供的資訊大致可靠,但不夠全面或個人化,建議病人衛教時要小心使用。 PubMed DOI