原始文章

這項研究發現,目前熱門AI聊天機器人在運動營養建議上的準確度只有中等,且不同AI表現差異大。雖然ChatGPT-4o和Claude3.5Sonnet表現較好,但整體證據品質偏低。建議運動員和教練還是要找專業營養師諮詢,AI只能當參考,不能完全依賴。 PubMed DOI


站上相關主題文章列表

這項研究探討了像ChatGPT這樣的AI聊天機器人在提供第二型糖尿病和代謝症候群的營養管理指導上的有效性。研究重點包括飲食管理、營養照護過程及1500卡路里菜單規劃。雖然兩位營養師的評估大致一致,但ChatGPT的建議在減重、能量缺口、人體測量及身體活動等方面存在明顯不足,且NCP的輸出不完整。儘管如此,營養師對其回應的清晰度評價良好。結論指出,ChatGPT可作為從業者的輔助工具,但使用者需了解其局限性。 PubMed DOI

營養對運動表現至關重要,尤其是超耐力運動。許多運動員缺乏足夠的營養知識,而新興的數位工具可能有助於改善這一點。ULTRA-Q問卷評估了多個AI模型的營養知識,結果顯示ChatGPT-4以93%準確率居首,Microsoft Copilot、Google Bard和ChatGPT-3.5分別為92%、84%和83%。這些AI在液體攝取和身體組成方面表現優異,顯示出它們在運動營養知識上具備高水平專業能力,未來可成為運動員的營養教育資源。 PubMed DOI

這項研究評估了AI聊天機器人在為肥胖患者提供營養建議的表現,分析了兩個案例:一位35歲男性和一位65歲女性。研究測試了十種不同的AI,並由註冊營養師評估其準確性、完整性和重現性。 **主要發現:** - 在第一個案例中,ChatGPT 3.5的準確率最高(67.2%),而Copilot最低(21.1%)。ChatGPT 3.5和4.0的完整性得分最佳(87.3%)。 - 第二個案例中,無一聊天機器人準確率超過50%,ChatGPT 4.0和Claude的完整性最佳(77.8%)。 - 蛋白質攝取建議存在不一致性,部分機器人建議增加,部分則建議減少。 **結論:** 研究指出,通用型AI在複雜健康情境下的飲食建議效果有限,無法取代專業營養師。 PubMed DOI

這篇論文探討了大型語言模型(LLMs)在營養與飲食應用中的表現,特別是針對註冊營養師(RD)考試的1050道問題。研究比較了GPT-4o、Claude 3.5 Sonnet和Gemini 1.5 Pro的準確性與一致性,並分析了不同提示技術的效果。結果顯示,GPT-4o在使用帶自我一致性的思考鏈(CoT-SC)時表現最佳,而Gemini 1.5 Pro在零提示(ZS)下則展現最高一致性。研究強調選擇合適的LLM和提示策略對減少錯誤風險的重要性。 PubMed DOI

本研究探討三款人工智慧聊天機器人——Gemini、Microsoft Copilot 和 ChatGPT 4.0 在制定個人化減重飲食計畫的有效性。結果顯示,這些機器人生成的飲食計畫在營養質量上表現良好,但在宏量營養素和脂肪酸的平衡上仍有不足。特別是,ChatGPT 4.0 在熱量準確性方面表現最佳,而Gemini的計畫變異性較大。總體而言,這些AI工具能提供有用的飲食建議,但仍需與營養專業人士的知識相輔相成。 PubMed DOI

ChatGPT 和類似的 AI 工具在臨床營養管理上有潛力,能透過機器學習來識別風險、提供個人化介入方案,並監測病人進展。它在營養評估和計算熱量需求方面表現良好,但無法解讀非語言線索或進行身體檢查。研究顯示,雖然它在臨床指導上表現不錯,但在整合多種醫療狀況和確保餐飲計畫準確性上仍有挑戰。儘管如此,ChatGPT 在專業指導下可成為優化營養教育的有用工具。 PubMed DOI

這項研究評估了ChatGPT-4對衰弱症相關問題的回答,結果顯示其回應在相關性、準確性、清晰度和完整性上表現良好,獲得高分。然而,評分者之間的一致性較差,顯示在準確性和清晰度上存在變異。雖然ChatGPT-4在病人教育方面有潛力,但仍需專家監督以確保臨床有效性。未來研究應聚焦於整合病人特定數據,並比較不同人工智慧工具,以提升其在衰弱症管理中的應用。 PubMed DOI

這項研究評估了兩個AI模型,ChatGPT-4o和ChatGPT-4,為一位20歲女性肥胖者制定1800卡路里的飲食計畫,並與2022年土耳其飲食指南(TDG-2022)比較。結果顯示,兩者的菜單與建議不一致,卡路里含量低於標準,且關鍵營養素如脂肪、碳水化合物、鉀和鈣的含量也未達標。總體而言,這些AI模型在飲食規劃上有重大限制,無法取代營養師的專業建議,使用時需謹慎。 PubMed DOI

三款主流聊天機器人(ChatGPT 4.0、Claude 2、Gemini)回答阿基里斯肌腱病變相關問題,ChatGPT 4.0「優秀」答案較多,但總分差不多。專家評分有落差,顯示標準化評估還不夠。雖然這些AI能提供不錯的醫療資訊,但臨床應用時還是要小心。 PubMed DOI

研究比較六款聊天機器人回答中年健康問題的表現,發現 Meta AI 答案最準確、最有條理,Perplexity 最容易閱讀。整體來說,這些聊天機器人對中年健康教育有幫助,但表現有差異,選擇合適的工具很重要。 PubMed DOI