原始文章

這項研究發現,不論是家長還是醫師,都認為 ChatGPT-4o 生成的小兒外科手術同意書比醫師自己寫的更好、更受歡迎。結果顯示,AI 有助於提升醫療同意書的品質和家長的滿意度。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)在醫療領域的應用越來越受到重視,特別是像ChatGPT這樣的工具。最近一項研究比較了學術來源與ChatGPT生成的唇顎裂(CL/P)手術資訊,重點在準確性、全面性和清晰度。結果顯示,60%以上的整形外科醫生和非醫療專業人士偏好ChatGPT的內容,認為其更全面且清晰。無論是ChatGPT還是學術資料,其可讀性均超過建議水平。這顯示AI工具在醫療資訊生成上具潛力,但仍需專家評估其品質。 PubMed DOI

這項研究探討了在專家指導下,ChatGPT生成的健康相關文本對父母醫療決策的影響。研究對象為116位18到65歲的父母,評估他們對兒科醫療主題的行為意圖及對生成內容的看法。結果顯示,經過適當指導的ChatGPT能在藥物、睡眠和飲食等方面影響父母的決策,且在道德性、可信度等評價上與專家內容差異不大,甚至在某些方面獲得更高評價。這強調了結合人類專業知識與AI生成內容的重要性。 PubMed DOI

人工智慧(AI)在醫療領域的應用已改變病人互動方式。本研究探討了像ChatGPT這樣的AI在手術同意過程中的角色,重點在於病人的理解與滿意度。研究中86名參與者與AI互動後,71%的人感到獲得足夠資訊,86%認為資訊清晰,71%相信能做出知情決策。雖然大多數參與者表達滿意,但對數據隱私的擔憂仍然存在。未來需改善AI互動,確保人性關懷不被忽視。 PubMed DOI

這項研究比較了AI平台ChatGPT-4和Bard Gemini Advanced所生成的知情同意文件,與一名一年級口腔外科住院醫師撰寫的文件。經18位專家評估,結果顯示ChatGPT-4在準確性、完整性和可讀性上均優於Bard和人類撰寫的文件。具體來說,ChatGPT-4的得分在各項目中均為4,而Bard為3,人類同意書也為4。研究強調AI在知情同意過程中的潛力,但也指出需持續評估和整合患者反饋,以確保其在臨床上的有效性。 PubMed DOI

這項研究探討AI生成的知情同意書在美容整形手術中的有效性,並與整形外科醫生的版本進行比較。研究分析了ChatGPT-4生成的表格與美國整形外科醫師協會(ASPS)提供的表格,針對五種常見手術進行評估。主要發現包括:ChatGPT生成的表格較短且易讀,準確性和完整性與ASPS相當,整體印象略高。研究建議AI生成的同意書可減輕外科護理的文件製作負擔。 PubMed DOI

這項研究探討介入放射科醫師對 ChatGPT-4 在提供知情同意方面的看法。醫師評估了其準確性、全面性、可讀性、對話語氣和舒適度,結果顯示準確性平均為 4.29,全面性 3.85,可讀性 4.15,對話語氣 4.24,舒適度 3.82。大部分醫師認為輸出內容足夠,但經驗豐富的醫師對評價較低。整體來看,雖然 ChatGPT-4 的內容通常準確且易懂,但在全面性上仍有不足,醫師在使用時需謹慎。 PubMed DOI

這項研究評估了ChatGPT在泌尿婦科手術知情同意方面的回答準確性與可讀性。五位專家醫師針對四種手術進行評估,結果顯示質量中等,DISCERN中位數評分為3,後恥骨中尿道吊帶得分最高。準確性方面,44%的回答被認為「正確且充分」,但也有不少回答含有誤導性或不正確的信息,特別是關於手術好處和替代方案。可讀性達到研究生水平,顯示在醫療環境中需對其輸出進行專業審查。 PubMed DOI

這項研究探討了使用人工智慧,特別是ChatGPT,來生成接受選擇性扁桃腺切除手術患者的出院信,並與耳鼻喉科醫生撰寫的信件進行比較。家長根據醫療資訊的品質、可讀性和長度評估這些信件。結果顯示,AI生成的信件在醫療資訊品質上明顯優於醫生撰寫的信件,且更易閱讀。參與者辨識AI生成信件的成功率為50%。這些發現顯示,人工智慧在醫療領域的應用前景良好。 PubMed DOI

**重點摘要:** 這項研究比較了由ChatGPT生成的同意書和專業人士撰寫的同意書,來探討牙醫系學生如何學習有關知情同意的知識。結果顯示,像這樣有老師指導的教學活動,有助於未來的牙醫師安全且有效地運用像ChatGPT這類的AI工具。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答小兒外科問題時表現比住院醫師和3.5版更好,尤其在定義題上最明顯。住院醫師看過AI表現後,對AI態度變得更正向。研究建議把AI教育納入醫學訓練,有助未來醫師善用AI工具。 PubMed DOI