原始文章

這項研究評估了ChatGPT-4在整形外科和重建外科的資訊質量與可讀性。研究人員針對過去15年最常搜尋的十個主題,設計了九個問題並輸入ChatGPT-4。結果顯示,使用DISCERN工具評估後,回應的資訊質量得分偏低,平均為34;可讀性指數也不佳,Flesch-Kincaid平均為33.6,Coleman-Liau為15.6。儘管如此,十二位整形外科醫師對回應的清晰度和準確性給予正面評價,平均得分分別為7.38和7.4。研究建議,AI語言模型如ChatGPT可作為健康資訊的起點,未來有潛力改善內容質量。 PubMed DOI


站上相關主題文章列表

AI在整形外科領域廣泛應用,像ChatGPT這樣的聊天機器人為患者提供資訊。研究發現ChatGPT在乳房手術相關資訊的品質不錯,但存在些許偏見。AI可幫助患者了解醫療程序,但應視為醫生的輔助。 PubMed DOI

研究發現,ChatGPT提供的醫學資訊品質不佳,甚至可能有危險。資訊品質高與醫師評分正相關。醫學人工智慧有潛力,但需改進準確性和可靠性。持續研究發展對提升醫療人工智慧應用、改善患者教育和知情同意流程至關重要。 PubMed DOI

Lim及其團隊在《美容整形外科》期刊中探討了ChatGPT在整形外科的應用。他們討論了ChatGPT對於先驅、進展和技術等主題的回應。文章提出了對於整形外科起源歸因和辨識標準中的偏見的擔憂,並質疑了對於重建手術的偏見。儘管ChatGPT在醫學查詢上表現優異,但其準確性仍受挑戰,需要臨床醫師監督。人工智慧在模擬人類認知方面的限制可能影響整形外科的未來發展。 PubMed DOI

人工智慧(AI)在醫療領域的應用越來越受到重視,特別是像ChatGPT這樣的工具。最近一項研究比較了學術來源與ChatGPT生成的唇顎裂(CL/P)手術資訊,重點在準確性、全面性和清晰度。結果顯示,60%以上的整形外科醫生和非醫療專業人士偏好ChatGPT的內容,認為其更全面且清晰。無論是ChatGPT還是學術資料,其可讀性均超過建議水平。這顯示AI工具在醫療資訊生成上具潛力,但仍需專家評估其品質。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Gemini和Claude—對鼻整形手術常見問題的回答。七位經驗豐富的整形外科醫生根據準確性、質量、完整性等指標進行評分。結果顯示,ChatGPT在準確性和整體質量上表現較佳,但完整性不如Gemini和Claude。三者的回應普遍被評為中立且不完整,醫學術語使用普遍,且可讀性達大學程度。研究強調聊天機器人生成的醫療資訊需謹慎檢查,但仍具提升醫療教育的潛力。 PubMed DOI

這項研究評估了GPT-4生成的整形外科在職訓練考試(PSITE)練習題的能力。結果顯示,雖然GPT-4能創建多選題,但質量普遍低於2022年的實際考題。GPT-4生成的問題可讀性較差,且問題較短,複雜度低。不同部分的可讀性差異明顯,核心外科原則較易讀,而顱顏面外科最難。總體來看,GPT-4的問題質量不佳,存在錯誤資訊。儘管如此,研究建議在有經驗醫生指導下,GPT-4仍可作為住院醫師的教育工具,但需謹慎使用。 PubMed DOI

這項研究探討AI生成的知情同意書在美容整形手術中的有效性,並與整形外科醫生的版本進行比較。研究分析了ChatGPT-4生成的表格與美國整形外科醫師協會(ASPS)提供的表格,針對五種常見手術進行評估。主要發現包括:ChatGPT生成的表格較短且易讀,準確性和完整性與ASPS相當,整體印象略高。研究建議AI生成的同意書可減輕外科護理的文件製作負擔。 PubMed DOI

這項研究評估了ChatGPT在口腔外科、預防牙科和口腔癌領域提供的資訊質量。專家設計了50個問題,結果顯示ChatGPT在預防牙科方面表現最佳,得分4.3(滿分5),能有效傳達複雜資訊。但在口腔外科(3.9)和口腔癌(3.6)方面得分較低,顯示在術後指導和個性化建議上有不足。研究強調在使用AI資訊時需有專業監督,並持續評估AI的能力,以確保病人護理的負責任使用。 PubMed DOI

本研究探討ChatGPT在唇裂修復方面的回應質量與準確性,因為大型語言模型在健康資訊傳播中越來越常見。研究選取十個常見問題,並由五位整形外科醫師評估其內容質量、清晰度、相關性和可信度。結果顯示,ChatGPT的平均評分為2.9分,清晰度和內容質量較高,但可信度較低。可讀性適合約10年級學生。雖然回應中無明顯不準確或有害資訊,但缺乏引用來源,使用者需注意其局限性。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Google Bard,對美學整形手術的回應可靠性,並與經驗豐富的外科醫生的見解進行比較。研究分析了三十位患者對皮膚填充劑、肉毒桿菌注射和眼瞼手術等問題的回應。十三位外科醫生根據可及性、準確性和實用性評估了LLM的回應。結果顯示,雖然聊天機器人的回應通常清晰且準確,但缺乏來源透明度限制了其可信度。研究建議在依賴LLMs作為主要信息來源時需謹慎,並呼籲進一步研究以增強其在醫療保健中的可靠性。 PubMed DOI