原始文章

自2023年以來,ChatGPT-4在醫療領域取得顯著進展,特別是在分析電子病人報告結果(ePROs)方面,對癌症病人的症狀監測及早期介入至關重要。本研究探討了ChatGPT-4分析三十位癌症病人四週的ePRO數據的可行性,並模擬醫療專業人員提供建議。結果顯示,ChatGPT-4在數據準確性和同理心方面表現良好,改善了醫護溝通並減輕了壓力。未來研究將著重於增強AI在癌症護理中的應用,促進醫病共同決策。 PubMed DOI


站上相關主題文章列表

這項研究評估了大型語言模型(LLMs)驅動的聊天機器人,如ChatGPT 3.5、CoPilot和Gemini,在提供前列腺癌資訊的有效性,並與官方病人指南進行比較。研究使用25個專家驗證的問題,根據準確性、及時性、完整性和可理解性進行評估。結果顯示,ChatGPT 3.5的表現優於其他模型,證明其為可靠的資訊來源。研究強調在健康領域持續創新AI應用的重要性,並建議未來探討AI回應中的潛在偏見及其對病人結果的影響。 PubMed DOI

臨床實踐指導方針(CPGs)對醫療專業人員的決策至關重要,因為它們提供基於證據的建議。然而,在日本,針對提升病人理解和決策的病人導向指導方針仍然不足,這影響了病人有效管理健康的能力。生成式人工智慧技術如ChatGPT,能簡化醫療資訊並個性化溝通,幫助病人更好理解護理細節。透過提升指導方針的清晰度,這些技術有潛力改善醫療結果,促進病人參與與明智決策。 PubMed DOI

人工智慧,特別是ChatGPT,進入醫療領域帶來了許多機會與挑戰。最近的回顧研究探討了ChatGPT在飲食規劃、疾病管理、醫學教育及臨床決策支持等方面的應用。研究指出,雖然ChatGPT在某些領域的準確性高,但也存在不準確、偏見及安全性等問題。許多研究專注於特定領域,可能影響結果的普遍適用性。隨著技術進步,評估其長期影響及倫理考量變得重要,確保在醫療環境中的負責任使用。 PubMed DOI

這項研究探討使用ChatGPT來製作以病人為中心的前列腺活檢病理報告,旨在幫助病人理解複雜的醫學術語。研究人員根據國家綜合癌症網絡的指導方針,合成了35份報告並進行評估。結果顯示,AI生成的報告在醫生和病理學家的評價中大多準確且完整,雖然需要一些修改,但修改速度比撰寫原創報告快。這顯示ChatGPT有助於改善醫療提供者與病人之間的溝通,值得進一步研究。 PubMed DOI

這項研究評估了ChatGPT-4o在臨床腫瘤學問題上的表現,並與傳統血液腫瘤學教科書進行比較。共評估37個與實體器官腫瘤相關的治療問題,結果顯示ChatGPT-4o的平均得分為7.83,優於教科書的7.0,且具統計意義(p < 0.01)。在10個案例中,ChatGPT-4o提供了更準確的資訊,並在26個案例中表現出更清晰的回答。研究強調定期更新的重要性,顯示ChatGPT-4o在腫瘤學的潛力,但需專家驗證以確保可靠性。 PubMed DOI

這項研究系統性地回顧了人工智慧(AI)在醫學領域的發展,特別是ChatGPT在腫瘤學中的重要角色。最近的進展顯示,ChatGPT能協助收集病歷、診斷、生成電子病歷、提供營養支持、參與多學科團隊及制定個人化治療計畫。不過,數據隱私和法律問題仍需解決,才能安全地整合進臨床實踐。如果這些挑戰克服,ChatGPT有望顯著提升腫瘤學的診斷和治療,改善病患照護及醫療服務品質。 PubMed DOI

這項研究探討使用生成式AI聊天機器人為兒童及青少年癌症患者提供心理健康支持,因為他們常面臨心理挑戰和資源不足。研究開發了兩個由GPT-4驅動的聊天機器人,與患者進行自然對話。五名參與者在兩週內與聊天機器人互動,結果顯示四名參與者的焦慮和壓力顯著減少。所有參與者都表示對治療的動力增加,且80%分享了未曾與醫療提供者討論的擔憂。這項研究顯示AI聊天機器人能有效補充傳統心理健康服務,值得進一步探討。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究評估了AI聊天機器人LilyBot(基於ChatGPT-4)對卵巢癌問題的回答準確性,並與婦科腫瘤學專家進行比較。研究人員從線上病患論壇收集問題,請十位專業人士回答,然後由八位獨立醫療專業人員評估這些回答。結果顯示,LilyBot在回答的正確性和完整性上均優於專業人士,尤其在免疫療法和基因療法方面表現突出。這顯示像LilyBot的AI聊天機器人能有效提供卵巢癌的可靠臨床資訊。 PubMed DOI

這項研究比較GPT-4和中國腫瘤科醫師回答癌症病患問題的表現。結果顯示,GPT-4在病患衛教的答案較完整,正確性和安全性也不輸醫師,但在醫療決策上正確率較低,偶爾還會出現危險錯誤。醫師和病患對同理心的感受也不同。總結來說,GPT-4適合用於衛教,但在醫療決策上仍需醫師把關。 PubMed DOI