原始文章

這項研究發現,ChatGPT能給家長清楚又實用的ADHD行為訓練建議,但部分資料過時、內容也不夠深入。AI工具雖然能協助照顧者學習,但臨床應用前,建議再加強正確性和細節。 PubMed DOI


站上相關主題文章列表

最近生成式人工智慧的進展,特別是像ChatGPT這類工具,顯示出在醫療保健中提升決策支持、教育和病人參與的潛力。不過,必須進行徹底評估以確保其臨床使用的可靠性和安全性。2023年的一項回顧分析了41篇學術研究,強調了ChatGPT在醫學領域的有效性,並指出其表現因專科和語言環境而異。雖然展現了潛力,但仍需克服一些挑戰。總體而言,持續改進對於成功整合至醫療保健至關重要,以改善病人護理結果。 PubMed DOI

這項研究評估了四種大型語言模型(LLM)工具——ChatGPT、Google Bard、Microsoft Bing Chat 和 Google SGE——在提供癌症兒童照顧者資訊的有效性。研究使用26個常見問題,五位小兒腫瘤學專家根據多項標準進行評估。結果顯示,ChatGPT整體表現最佳,特別在複雜性上,而Google Bard在準確性和清晰度上表現突出。Bing Chat和Google SGE得分較低。專家強調情感語調和同理心的重要性,未來需進一步研究這些工具在其他醫療領域的應用。 PubMed DOI

尿道下裂是一種常見的先天性疾病,對父母的教育非常重要。本研究探討了ChatGPT在提供尿道下裂相關資訊的表現,針對診斷、治療及術後護理提出問題,並使用PEMAT-P工具評估其可理解性和可行性。結果顯示可理解性得分平均為88%,可行性則為51%。在準確性評估中,41%的回應被認為完全準確。整體Kappa值為0.607,顯示醫生間對資訊準確性有共識。未來需改善回應的準確性,並考慮加入視覺輔助工具以協助父母。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這項研究比較了ChatGPT-4o和ChatGLM-4兩款AI,針對家長常問的兒童異位性皮膚炎問題,請皮膚科醫師評分。結果發現,兩者表現差不多,回答品質跟專家差不多,能有效提供兒童異位性皮膚炎的照護和治療建議。 PubMed DOI

這項研究發現,ChatGPT在急性精神科危機的德語諮詢中,獲得「有幫助」和「適切」等正面評價,但在「真實感」上表現較差,尤其是精神病案例。多數專業人員認為LLM未來在醫療有潛力,但對其風險仍有疑慮,需更多實際病人研究才能安全應用。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI

這項研究發現,GPT在為有心理症狀的中風患者設計職能治療方案時,內容太籠統、缺乏細節和專業性,分數偏低。雖然在部分方案設計上有輔助潛力,但目前仍無法取代專業治療師,主要受限於訓練資料不足。 PubMed DOI

這項研究發現,ChatGPT能幫助腦膜瘤患者了解診斷和治療,特別是在放射線治療後的衛教上。大多數患者覺得ChatGPT的回答清楚又正確,六成願意未來再用。醫師也認同內容大致正確,但提醒部分細節、尤其副作用說明還不夠完整。整體來說,ChatGPT適合當作衛教輔助工具,但還是需要醫師把關。 PubMed DOI