原始文章

這項研究評估了ChatGPT3.5和ChatGPT4在生成乳房篩檢病人資訊表的表現。雖然兩者提供了一些有用資訊,但準確性和清晰度都不理想。ChatGPT4在可理解性和可行性上表現較好,但仍有明顯遺漏。整體而言,這兩個版本被視為不可靠的健康資訊來源,特別是對健康素養較低的人士。這引發了對乳房篩檢參與可能造成的負面影響的擔憂,並強調醫療教育者需針對AI工具的錯誤資訊進行處理。 PubMed DOI


站上相關主題文章列表

ChatGPT-4是新的AI聊天機器人,可以回答複雜問題,或許可應用在醫療保健領域。研究者使用EQIP工具評估了ChatGPT-4提供的5種HPB條件醫學資訊的可靠性,結果顯示與指南建議一致。ChatGPT-4的答案內部一致性與靜態網路資訊相當,顯示大型語言模型像ChatGPT可能成為未來查詢醫學資訊的標準。 PubMed DOI

研究發現,ChatGPT提供的攝護腺癌資訊雖多,但準確性和品質較差,建議使用時要謹慎。未來需深入研究不同主題和語言模型,以提升人工智慧生成的患者資訊品質。 PubMed DOI

研究評估ChatGPT回答患者影像問題的表現,結果顯示準確性約83%,提示可提高。回答一致性隨提示增加而改善,大多相關。易讀性高,但複雜。ChatGPT有潛力提供正確相關資訊,但需監督。提示可提供針對性資訊,但易讀性未改善。需進一步研究克服限制,更適用於醫療。 PubMed DOI

研究評估了ChatGPT等人工智慧模型在大腸直腸癌篩檢患者教育和溝通上的應用。結果顯示,ChatGPT和YouChat™回答較為適當,但也有不可靠之處。建議患者在接受模型建議前,應諮詢醫師以獲得更多專業意見。 PubMed DOI

研究發現使用ChatGPT簡化乳癌預防和篩檢問題答案,讓六年級學生也能看懂。簡化後的答案閱讀更輕鬆,字數也減少,92%符合臨床標準。雖然ChatGPT有助簡化,但需醫師監督以避免錯誤資訊。 PubMed DOI

研究測試了 ChatGPT 在為 75 歲以上乳癌篩檢提供建議的表現。結果顯示,ChatGPT 對大部分問題的回應適當,但也有不適當或不可靠的情況。雖然 ChatGPT 有提供正確醫療資訊的潛力,但仍需醫師監督以避免錯誤回答。 PubMed DOI

這項研究評估了ChatGPT 3.5在提供乳癌資訊的有效性。研究人員提出20個常見問題,並根據準確性、臨床一致性和可讀性進行評估。結果顯示,平均準確性得分為1.88,臨床一致性得分為2.79,回答平均字數為310字,但可讀性較差,Flesch Kincaid指數為37.9。研究發現,24%的回答是錯誤的,41%的回答缺乏真實參考文獻,建議病患在依賴ChatGPT獲取醫療資訊時要特別謹慎。 PubMed DOI

這項研究探討了ChatGPT在提供乳腺癌健康資訊的有效性,並與CDC網站進行比較。研究使用技術接受模型,強調易用性和有用性,並針對患者和公眾的常見問題進行質性分析,聚焦於定義、預防、診斷和治療四個主題。結果顯示,ChatGPT使用友好且提供準確資訊,來源可靠,能增強乳腺癌知識的獲取。不過,它缺乏問責性,回應也可能隨時間變化。總體而言,ChatGPT在傳播乳腺癌資訊和提升公眾認識方面顯示出潛力。 PubMed DOI

將AI技術如ChatGPT應用於醫療領域,特別是在性別肯定乳房切除術(GAM)方面,顯示出改善病人教育的潛力。本研究評估了ChatGPT對GAM常見問題的回答質量與可讀性。結果顯示其可讀性達到大學或研究生水平,且準確性較高。然而,醫生指出回應有時過於一般化,可能包含錯誤資訊,並有病理化性別焦慮的風險。因此,雖然ChatGPT可作為有用資源,但仍需謹慎使用,並建議諮詢醫療專業人員以獲得個性化建議。 PubMed DOI

這項研究評估了ChatGPT對乳腺癌常見問題的回答準確性,顯示它在病患教育中的潛力。研究收集了100個問題,專家評估後發現,大部分回答至少部分正確,但仍有5個完全錯誤、22個部分正確、42個正確但缺乏細節,只有31個高度準確。這顯示ChatGPT可作為輔助工具,但不準確的情況強調了專業監督的重要性。研究建議在醫療中整合AI工具,以增進病患與醫療提供者的互動,並確保資訊隨時更新。 PubMed DOI