原始文章

這項研究評估了ChatGPT-3.5在提供阻塞性睡眠呼吸暫停症(OSA)資訊的有效性,並與Google搜尋進行比較。結果顯示,ChatGPT-3.5在資訊品質和可靠性上明顯優於Google搜尋,但可讀性較差。具體來說,ChatGPT-3.5在全球品質評分和內容可靠性上得分較高,而Google搜尋則提供了更易讀的內容。研究指出,ChatGPT-3.5是病人教育的好資源,但需改善可讀性,以便讓更多病人能夠理解。醫療提供者應協助病人評估線上健康資訊的可靠性。 PubMed DOI


站上相關主題文章列表

OpenAI的ChatGPT,一個生成式人工智慧聊天機器人,有潛力通過提供個性化患者互動來改變醫療保健。這項研究旨在評估ChatGPT如何幫助患有阻塞性睡眠呼吸暫停症的患者,回答問題,協助自我診斷,分析症狀,並引導預防行為,以避免嚴重的健康後果。 PubMed DOI

研究評估了ChatGPT對患者教育阻塞性睡眠呼吸暫停的回應。結果顯示,提示影響了回應的正確性和等級,友善的提示導致較低的等級。整體而言,ChatGPT提供了適當的答案,統計/參考資料可提高回應質量。建議睡眠專家進一步研究ChatGPT的醫學素養和對患者的幫助。 PubMed DOI

研究比較了ChatGPT和Google Bard對阻塞性睡眠呼吸暫停症患者教育的表現,耳鼻喉科醫師認為ChatGPT更易懂、更實用,文檔品質較高且無錯誤危險資訊。總結來說,ChatGPT是提供患者更好資訊的選擇。 PubMed DOI

研究使用 Chat-GPT 協助醫護人員診斷睡眠呼吸暫停症,結果顯示與專業醫師意見一致率超過75%,但整體共識僅有四個問題。儘管 Chat-GPT 一致性中等,仍需改進並與專家合作。人工智慧在醫療領域有潛力,但應視為醫療人員輔助,而非替代。研究強調了人工智慧與人類合作的重要性,並為耳鼻喉學領域帶來啟示,呼籲進一步探索人工智慧在醫療上的應用。 PubMed DOI

研究發現ChatGPT處理失眠查詢準確且多樣。回應因提示不同而有變化,但整體表現良好。參考資料真實相關,統計數據較少。總結來說,ChatGPT對失眠問題提供臨床準確回答。 PubMed DOI

研究比較了ChatGPT和傳統網路搜尋對耳鼻喉科問題的表現,發現ChatGPT回答可讀性稍差但理解度高。在診斷問題上表現較佳,對事實或政策問題則無明顯差異。透過提示可提升ChatGPT回答的可讀性,顯示其在提供醫學資訊上有潛力,尤其在症狀診斷方面。 PubMed DOI

研究評估ChatGPT在鼻科病理學資訊的品質和可靠性,提出65問題探討病因、風險、治療、預後。使用Discern問卷和Fleiss's Kappa分析,整體品質得分為3.59,可靠性較低為3.18,一致性為0.69。研究認為ChatGPT回答準確可靠,提供易懂描述,建議在專業監督下可成為有用工具。 PubMed DOI

ChatGPT在生成病人諮詢材料方面受到關注,但其有效性尚待評估。一項研究測試了ChatGPT在五種手術程序的圍手術期諮詢及併發症的表現。結果顯示,ChatGPT能提供全面的手術前諮詢要點,但對於手術併發症的準確性則不盡理想。與線上教育資源相比,ChatGPT的回應在適用性和病人教育材料評估中表現良好。總體而言,雖然ChatGPT能處理基本諮詢,但在複雜併發症方面仍有待加強。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究評估了ChatGPT對COVID-19引起的嗅覺功能障礙的回應質量。使用30個相同問題,並在四種不同提示下詢問ChatGPT,結果顯示480個回應中有75.8%被評為「至少良好」。不同提示類型影響回應質量,針對八年級學生和患者的回應更易理解。總體來看,ChatGPT的答案大多準確,但表述方式會影響回應的質量和複雜性。研究認為,ChatGPT在患者教育上有潛力,但回應常過於複雜。 PubMed DOI