原始文章

腕管症候群(CTS)是一種常見病症,受到醫療界和大眾的重視。本研究分析了社交媒體平台上有關CTS的資訊質量,並與大型語言模型(LLMs)如ChatGPT和Google Bard的資訊進行比較。研究涵蓋80部YouTube和Instagram影片,發現LLMs提供的資訊質量顯著高於社交媒體影片。醫療專業人士創作的影片得分較高,但53.8%的影片由非醫療作者製作,顯示專業性不足。結論強調需增加醫療專業人士在社交媒體上的參與,以提升正確知識的傳播。 PubMed DOI


站上相關主題文章列表

這項研究評估了兩個AI平台(Gemini和ChatGPT)對手部和手腕手術常見問題的回答質量。共提出12個問題,分析48個回答,使用三種評分工具進行評估。結果顯示,回答的平均分數為55.7(良好)、57.2%(足夠)和4.4。手腕相關問題的回答質量顯著高於手部問題,且Gemini在評分上優於ChatGPT。雖然AI的回答通常被評為良好,但質量因平台和問題類型而異,了解這些差異對病人尋求資訊至關重要。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

這項研究評估了兩個人工智慧平台,ChatGPT-4 和 Claude 2,對前庭神經瘤管理資訊的品質。由19位側顱底外科醫生組成的評估小組使用醫療人工智慧品質評估問卷(QAMAI)來檢視36個問題的回答。結果顯示,ChatGPT-4在38.9%的問題上表現優於Claude 2,而Claude 2僅在5.6%的問題上得分較高。雖然ChatGPT-4在大多數方面表現較佳,但兩者在提供準確資訊上仍有困難,顯示患者使用這些工具時面臨錯誤資訊的風險。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Google Bard,對美學整形手術的回應可靠性,並與經驗豐富的外科醫生的見解進行比較。研究分析了三十位患者對皮膚填充劑、肉毒桿菌注射和眼瞼手術等問題的回應。十三位外科醫生根據可及性、準確性和實用性評估了LLM的回應。結果顯示,雖然聊天機器人的回應通常清晰且準確,但缺乏來源透明度限制了其可信度。研究建議在依賴LLMs作為主要信息來源時需謹慎,並呼籲進一步研究以增強其在醫療保健中的可靠性。 PubMed DOI

這項研究評估了四個人工智慧模型在生成脊椎手術病患教育材料的有效性,主要針對腰椎椎間盤切除術、脊椎融合術和減壓椎板切除術。結果顯示,DeepSeek-R1 的可讀性最佳,Flesch-Kincaid 分數介於 7.2 到 9.0 之間,而 ChatGPT-o3 的可讀性最低,超過 10.4。所有模型的資訊品質均低於 60,顯示出「公平」的品質,主要因缺乏參考資料。研究強調改善引用實踐及個性化 AI 生成健康資訊的必要性,未來應整合互動元素和病患反饋,以提升準確性和可及性。 PubMed DOI

這項研究比較了GPT-4和Google在腕隧道手術(CTS)常見問題上的回應差異。主要發現包括: 1. **問題類型**:兩者都提供事實性資訊,但Google更注重技術細節。 2. **可讀性**:Google的回應可讀性較高,Flesch閱讀分數更好。 3. **回應長度**:Google的答案通常較短。 4. **數字準確性**:GPT-4的數字回應範圍較廣。 總體來說,GPT-4提供更詳細的技術見解,有助於病患教育,而Google則提供更易懂的資訊。這研究強調了醫療情境中AI與搜尋引擎的資訊傳遞差異。 PubMed DOI

旋轉袖肌腱撕裂是常見的肩部傷害,會影響功能和生活品質。隨著人們越來越依賴人工智慧大型語言模型(AI LLMs)獲取健康資訊,評估其資訊質量和可讀性變得重要。一項研究針對此傷害生成50個問題,分析了多個AI模型及Google搜尋的回應。結果顯示,雖然有改進潛力,但目前的AI LLM在醫療資訊的質量和可讀性上仍不足,未來需持續評估並提升其表現,以更好地支持病人教育。 PubMed DOI

這項研究評估了手部手術相關的線上醫療資訊,並比較了Google、ChatGPT-3.5和ChatGPT-4.0的回應。研究針對腕隧道症候群、網球肘和富血小板血漿用於拇指關節炎三個問題進行分析。 主要發現包括: 1. **可讀性**:Google的回應較易讀,平均在八年級水平,而ChatGPT則在大學二年級水平。低共識主題的可讀性普遍較差。 2. **可靠性與準確性**:ChatGPT-4的可靠性與3.5相似,但低共識主題的可讀性較低,準確性差異不大。 3. **覆蓋範圍**:ChatGPT-4和Google在疾病原因和程序細節的覆蓋上有所不同,但在解剖學和病理生理學上相似。 總結來說,雖然ChatGPT能提供可靠的醫療資訊,但可讀性較差,醫療提供者需注意其局限性。 PubMed DOI

這項研究比較三款AI聊天機器人回答腕隧道症候群相關問題的表現。ChatGPT-4o 回答最詳細,但 AMBOSS GPT 的答案最常被 UpToDate 證實,正確率最高。總結來說,GPT-4o 資訊多,AMBOSS GPT 則較可靠。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答先天性上肢差異常見問題時,大約一半答案正確且清楚,但有8%內容不夠好或可能誤導。回答內容深度和完整性不一,且很少建議諮詢專業醫師。總結來說,ChatGPT提供的資訊大致可靠,但不夠全面或個人化,建議病人衛教時要小心使用。 PubMed DOI