原始文章

本研究評估了ChatGPT在回答有關肺癌手術的常見問題上的能力。專家小組對其十六個回答進行評估,結果顯示所有回答都令人滿意且基於證據,僅有少數需要小幅澄清。使用的語言也易於患者理解。結論是,ChatGPT能有效提供肺癌手術相關資訊,並可作為術前患者教育的有用工具。 PubMed DOI


站上相關主題文章列表

研究用DISCERN標準評估AI聊天機器人對常見癌症問題回答的品質,發現ChatGPT比Bing AI表現較好。AI在醫療上有潛力,但仍需改進,尤其在癌症等重要領域,以避免給患者和家人帶來誤解或壓力。 PubMed DOI

研究評估了使用參考書回答結腸直腸癌相關問題的人工智慧模型ChatGPT。結果顯示ChatGPT回答可重複,但全面性和準確性不如專家。在放射療法和疼痛控制方面表現好,但在基本資訊和手術方面較弱。ChatGPT有潛力,但仍需進步才能達到專家水準,提供病患更完整的教育資訊。 PubMed DOI

人工智慧驅動的聊天機器人,如ChatGPT,在醫療保健領域中越來越被使用,用來與病患互動並提供資訊。一項研究評估了ChatGPT對乳腺癌手術問題的回答,發現其可靠且準確,只有少量不準確之處。這個聊天機器人的回答清晰易懂,並強調了諮詢醫療專業人員以獲得醫療建議的重要性。 PubMed DOI

這項研究評估了ChatGPT在回答甲狀腺手術問題方面的準確性、易讀性和相關性。收到的回應在準確性方面通常表現良好,但對一般大眾來說易讀性較差。雖然ChatGPT在回答醫學問題方面顯示出潛力,但仍需要改進以提高患者的理解能力。 PubMed DOI

商業供應商已經開發了各種人工智慧工具,包括放射腫瘤學。研究發現,基於人工智慧的聊天機器人ChatGPT在放射腫瘤學門診部表現良好,對常見問題準確率達80%,對多重選擇問題達90%。ChatGPT可提供準確的放射腫瘤學知識,對該領域教育有潛在影響。 PubMed DOI

這項研究評估了ChatGPT對肺癌問題的回答可讀性,涵蓋定義、成因、風險因素、診斷、治療和預後等。研究者向ChatGPT提出80個問題,並用不同的可讀性標準來評估其回答。結果顯示,這些回應的可讀性屬於中等,通常在「大學」水平或以上,對患者來說不易理解。研究建議未來的ChatGPT版本應更針對不同教育背景和年齡層,以提升醫療資訊的可及性。 PubMed DOI

這項研究評估了ChatGPT對肺癌手術病人問題的回答質量與準確性。研究中提出30個問題,九位胸腔外科醫生對回答進行評分,結果顯示平均質量分數在3.1到4.2之間,通常被認為是「良好」到「非常好」。不過,36.6%的回答存在重大不準確性,且所有回答都有小錯誤。雖然66.7%的醫生認為ChatGPT是準確的信息來源,但只有44.4%的人會推薦給病人。總體來看,ChatGPT在肺癌手術病人資訊方面有潛力,但仍需改進質量與準確性。 PubMed DOI

這項研究評估了ChatGPT對乳腺癌常見問題的回答準確性,顯示它在病患教育中的潛力。研究收集了100個問題,專家評估後發現,大部分回答至少部分正確,但仍有5個完全錯誤、22個部分正確、42個正確但缺乏細節,只有31個高度準確。這顯示ChatGPT可作為輔助工具,但不準確的情況強調了專業監督的重要性。研究建議在醫療中整合AI工具,以增進病患與醫療提供者的互動,並確保資訊隨時更新。 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT,在病患與醫師溝通中的角色,針對胰臟癌手術問題進行比較。研究設計與病患諮詢委員會合作,包含24位病患和25位外科醫師的盲評估。結果顯示,病患和醫師對ChatGPT的內容可靠性達成共識,且認為其回應清晰易懂,具同理心。雖然一位外科醫師的評價最高,但ChatGPT的表現也相當接近。整體而言,研究顯示人工智慧能有效支持病患與醫療提供者的互動。 PubMed DOI

這項研究評估了ChatGPT對甲狀腺癌相關問題的回答品質,因為患者常透過網路尋求健康資訊。八位醫療專家對ChatGPT的20個回答進行評分,結果顯示只有57%的回應準確,56%完整,52%令人滿意。質性分析指出,回應中對飲食和碘攝取的過度強調,以及甲狀腺手術和放射性碘治療風險的資訊不完整或不準確。研究結果顯示,ChatGPT目前並不可靠,無法在無監督下提供甲狀腺癌的患者資訊。 PubMed DOI