原始文章

這項研究發現,ChatGPT在回答四種常見整形外科手術的病人問題時,表現穩定且清楚,對衛教有幫助。不過,它無法給予個人化建議,建議還是要搭配專業醫師使用。未來可加強個人化功能,並在臨床實際測試。 PubMed DOI


站上相關主題文章列表

腹部整形手術是處理美容和功能問題的常見手術,但患者和外科醫師溝通不足會影響決策。研究發現使用大型語言模型(LLMs)如ChatGPT-3.5、Claude、Gemini和CoPilot回答手術前問題。LLMs間易讀性和質量有差異,ChatGPT-3.5需要高理解水平,Claude提供最適切建議,CoPilot最貼近患者,提供全面資訊。LLMs各有特點和限制,在醫療保健中使用時需謹慎選擇。 PubMed DOI

這項研究評估了一個公開的人工智慧大型語言模型(LLM)在回答模擬病人關於美學乳房整形手術問題的表現。專家根據準確性、全面性等標準評分,總體得分為7.3分,乳房增大7.0分、乳房懸吊術7.6分、乳房縮小手術7.4分,對乳房植入物的知識得分為6.7分。儘管有些限制,研究顯示AI LLM可成為病人教育的有用工具,並可能隨著機器學習進步而改善。 PubMed DOI

將AI技術如ChatGPT應用於醫療領域,特別是在性別肯定乳房切除術(GAM)方面,顯示出改善病人教育的潛力。本研究評估了ChatGPT對GAM常見問題的回答質量與可讀性。結果顯示其可讀性達到大學或研究生水平,且準確性較高。然而,醫生指出回應有時過於一般化,可能包含錯誤資訊,並有病理化性別焦慮的風險。因此,雖然ChatGPT可作為有用資源,但仍需謹慎使用,並建議諮詢醫療專業人員以獲得個性化建議。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI

這項研究探討了ChatGPT在提供性別肯定手術(GAS)患者醫療資訊的角色。研究比較了經驗醫生與ChatGPT的回應,結果顯示ChatGPT的回應雖然較複雜,但在可靠性、品質和可理解性上表現良好。它提供了詳細且相關的資訊,強調了諮詢醫療提供者及處理心理層面的重要性。雖然ChatGPT在患者教育上有潛力,但因為其較高的閱讀水平和缺乏透明參考文獻,使用時仍需謹慎。總體來說,ChatGPT在提升GAS患者教育方面顯示出潛力,但仍需改進。 PubMed DOI

這項研究評估了ChatGPT為乳房重建患者生成的問題質量,這些問題是患者可以詢問醫療提供者的。研究將這些問題與可信的線上來源進行比較,並由經驗豐富的外科醫生評估其可接受性及對知情同意和共同決策的貢獻。結果顯示,外科醫生對ChatGPT生成的問題評價很高,16個問題中有15個被認為可接受,且可能增強知情同意過程。值得注意的是,外科醫生難以辨識這些問題是AI生成的,顯示AI工具在準備諮詢上對患者有潛在好處。 PubMed DOI

這項研究發現,ChatGPT-4o在協助乳房疾病手術規劃時,雖然能給出清楚且結構良好的建議,但在手術細節和風險評估上還不夠完善,且回答內容需要較高的閱讀理解能力。現階段它只能當作輔助工具,無法取代專業醫師,未來還需更多開發和專家驗證才能臨床應用。 PubMed DOI

**重點摘要:** 這項研究利用 ChatGPT 4.0 製作了淺顯易懂的術後傷口照護衛教資料。專家評估後認為這些資料內容清楚、正確、品質高且適合病人使用,閱讀難易度也很理想。結果顯示,ChatGPT 能有效協助臨床製作病人衛教資料。 PubMed DOI

這項研究比較了公開AI模型(如ChatGPT 4o)和自訂模型(Pyolo8)在乳房重建手術後對稱性評估的表現。兩者和專家評分有中到高度一致,ChatGPT在溝通上特別突出。不過,研究團隊認為AI不宜直接與病人互動,避免誤解和情緒問題。總結來說,AI能協助評估,但專業醫師的監督和同理心仍不可取代。 PubMed DOI

這項研究發現,ChatGPT回答眼瞼手術常見問題時,內容大致正確且有幫助,但用詞偏高中程度,部分病患可能覺得難懂。不同問題類型的可讀性差不多。總結來說,ChatGPT能提供實用資訊,但答案不一定完全正確,也未必人人都看得懂。 PubMed DOI