原始文章

這項研究比較了ChatGPT-4o和ChatGLM-4兩款AI,針對家長常問的兒童異位性皮膚炎問題,請皮膚科醫師評分。結果發現,兩者表現差不多,回答品質跟專家差不多,能有效提供兒童異位性皮膚炎的照護和治療建議。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT 3.5和4.0在診斷和管理異位性皮膚炎及自體免疫性水泡性皮膚病的效果。五位皮膚科醫生針對50份問卷的回應進行評估,發現兩個版本對異位性皮膚炎的理解不錯,且4.0表現優於3.5,但都無法超越資深醫療專業人員的診斷能力。在診斷特定的自體免疫性水泡性皮膚病案例時,兩個版本的表現都不夠精確。總體來看,雖然ChatGPT在異位性皮膚炎的基本詢問上表現良好,但在AIBD的診斷上仍有待加強。 PubMed DOI

人工智慧(AI)在皮膚科的應用迅速發展,特別是 ChatGPT 成為患者教育和臨床決策的重要工具。本研究評估了 ChatGPT 在皮膚科的有效性與挑戰,發現其在回答常見皮膚病問題上表現良好,但在複雜病例診斷上仍有困難,且存在信息準確性和倫理問題。未來應謹慎整合 ChatGPT,解決數據隱私和算法偏見等挑戰,並強調其應輔助而非取代醫生的角色。 PubMed DOI

AICHECK的研究評估了ChatGPT在生成持續醫學教育內容的有效性,特別針對痤瘡的回應與NICE指導方針進行比較。研究使用23項問卷,由五位皮膚科醫生評估ChatGPT版本4的輸出。結果顯示質量、可讀性和全面性評分高,但準確性和與指導方針的一致性較低。雖然參考文獻的相關性和適切性獲得好評,但僅62.3%被認為是最新的。研究強調對於有爭議的主題,AI生成內容需嚴格評估和專家監督,以確保準確性。 PubMed DOI

這項研究探討大型語言模型(LLMs),如ChatGPT和Microsoft Bing Chat,在皮膚科、性病學和麻風問題上的回答效果。研究比較了這些AI模型與12位研究所學生的準確性,並評估了人工幻覺的情況。 研究於2023年8月進行,包含60個問題。結果顯示,Bing Chat的表現最佳,平均正確率為78.2%,ChatGPT為59.8%,人類受訪者則為43%。Bing Chat在簡單和中等難度問題上表現更佳,而ChatGPT在較難問題上較強。研究指出,儘管LLMs表現優於人類,但在某些領域準確性仍不足,需制定規範以防止濫用。 PubMed DOI

這項研究評估了ChatGPT在回答過敏學問題的表現,顯示它對於等待專科門診的病患來說是一個方便的資源。研究針對120個問題進行評估,結果顯示ChatGPT的整體準確性不錯(平均4.1分),但在兒科問題的完整性和人性化程度上較低。特別是與兒童食物過敏相關的錯誤,可能會造成生命危險。這強調了ChatGPT在提供過敏學建議上的局限性,並建議諮詢專業醫師的重要性。調整AI工具以適應特定醫療情境,可能會提升其臨床有效性。 PubMed DOI

這項研究比較三款AI語言模型在回答川崎病問題時的表現。結果顯示,Claude 3.5 Sonnet 答案最準確,特別適合專業醫師提問;Gemini 1.5 Pro 則在家長提問時最容易理解。不過,所有模型都有可能出現錯誤資訊。建議家長查詢時優先選用 Claude 3.5 Sonnet 並用適合家長的提問方式。未來還需持續改進AI模型,確保醫療資訊正確可靠。 PubMed DOI

這項研究比較四種大型語言模型在回答兒童氣喘問題時的表現,結果 GPT-4.0 最優,YouChat 最差,GPT-3.5 和 GPT-4.0 都比其他兩款好,但兩者差異不大。雖然這些模型能提供準確醫療資訊,醫師還是要批判性判斷,不能全然相信。未來隨技術進步,這些模型有望成為可靠的醫療工具。 PubMed DOI

這項研究發現,ChatGPT 3.5在皮膚科住院醫師考題表現不如資深醫師,只能應付簡單題目;4.0版雖然進步,能達到部分初中階醫師水準,但遇到難題還是有瓶頸。整體來說,ChatGPT 4.0在皮膚科教育有潛力,但目前還無法取代資深醫師,未來若持續進步,對醫學訓練會更有幫助。 PubMed DOI

研究比較ChatGPT和Gemini產生兒童皮疹衛教手冊的表現,發現ChatGPT內容較長,但兩者在可讀性、年級程度、可靠性及資訊品質上差異不大。建議未來AI健康內容應加入專家審查和病人意見,以提升品質。 PubMed DOI

ChatGPT 這類 AI 語言模型,已經用在皮膚科,幫忙解讀資料、協助診斷和提升醫病溝通。結合 CNN 等影像分析工具後,能整合文字和圖片資訊,讓診斷更精準。不過,ChatGPT 不能直接看圖,有時也會出錯,像病人隱私和醫師責任這些倫理問題還是要注意。未來有望發展更整合的 AI 系統,讓皮膚科照護更進步。 PubMed DOI