原始文章

這項研究發現,不論是家長還是醫師,都認為 ChatGPT-4o 生成的小兒外科手術同意書比醫師自己寫的更好、更受歡迎。結果顯示,AI 有助於提升醫療同意書的品質和家長的滿意度。 PubMed DOI


站上相關主題文章列表

本研究探討人工智慧,特別是自然語言處理模型如ChatGPT,對於男性根治性前列腺切除術後勃起功能障礙(ED)患者的教育與知情同意的潛力。結果顯示,雖然ChatGPT能提供有關陰莖假體植入手術的資訊,但其質量和可理解性仍不足以幫助患者做出知情決策。評估結果顯示資訊的清晰度高,但複雜主題的理解度較低,顯示出改進AI生成內容的必要性。 PubMed DOI

這項研究評估了ChatGPT在泌尿婦科手術知情同意方面的回答準確性與可讀性。五位專家醫師針對四種手術進行評估,結果顯示質量中等,DISCERN中位數評分為3,後恥骨中尿道吊帶得分最高。準確性方面,44%的回答被認為「正確且充分」,但也有不少回答含有誤導性或不正確的信息,特別是關於手術好處和替代方案。可讀性達到研究生水平,顯示在醫療環境中需對其輸出進行專業審查。 PubMed DOI

這項研究探討了使用ChatGPT協助先天性心臟病患者在心血管手術會議中的決策。研究分析了37個案例,發現ChatGPT能在10到15秒內準確總結案例,並在94.5%的情況下正確識別診斷。手術計畫與會議共識一致的比例為40.5%,而手術時機一致性為62.2%。研究建議ChatGPT可作為有價值的工具,特別在較簡單的案例中,但對於複雜情況仍需謹慎,並強調專家監督的重要性。 PubMed DOI

這項初步研究探討了使用ChatGPT來提升義大利疫苗接種同意書的可讀性。研究評估了三種同意書:標準表格(A)、完全由ChatGPT生成的表格(B),以及由ChatGPT修改的標準表格(C)。結果顯示,表格A和C在適當性和整體評價上表現最佳,均獲得4.0的中位數分數,而表格B則只有3.0。研究指出,雖然ChatGPT能改善醫療溝通,但最佳效果需結合人類專業知識與監督。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是ChatGPT-4和Microsoft Copilot在小兒外科的有效性。研究於2024年4月進行,分析了13個臨床案例,並將AI的回應與經驗豐富的小兒外科醫生的回應進行比較。結果顯示,ChatGPT-4的表現(52.1%)優於Copilot(47.9%),但兩者都低於醫生的68.8%。雖然ChatGPT-4在生成鑑別診斷方面表現較佳,但整體上,醫生對LLMs的評價為一般,顯示出其在臨床決策中的限制,需進一步研究以提升AI的應用能力。 PubMed DOI

這項研究探討了使用人工智慧,特別是ChatGPT,來生成接受選擇性扁桃腺切除手術患者的出院信,並與耳鼻喉科醫生撰寫的信件進行比較。家長根據醫療資訊的品質、可讀性和長度評估這些信件。結果顯示,AI生成的信件在醫療資訊品質上明顯優於醫生撰寫的信件,且更易閱讀。參與者辨識AI生成信件的成功率為50%。這些發現顯示,人工智慧在醫療領域的應用前景良好。 PubMed DOI

**重點摘要:** 這項研究比較了由ChatGPT生成的同意書和專業人士撰寫的同意書,來探討牙醫系學生如何學習有關知情同意的知識。結果顯示,像這樣有老師指導的教學活動,有助於未來的牙醫師安全且有效地運用像ChatGPT這類的AI工具。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答小兒外科問題時表現比住院醫師和3.5版更好,尤其在定義題上最明顯。住院醫師看過AI表現後,對AI態度變得更正向。研究建議把AI教育納入醫學訓練,有助未來醫師善用AI工具。 PubMed DOI

這項研究發現,ChatGPT-4o產生的兒童眼科手術衛教資料,無論是英文還是西班牙文,品質都還不如美國兒童眼科與斜視協會(AAPOS)提供的內容,特別是在正確性、時效性和語氣上。不過,兩者的可讀性差不多,未來隨著AI進步,品質有望提升。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI