原始文章

這項研究評估了AI聊天機器人,特別是ChatGPT,提供的乳腺癌和前列腺癌篩檢資訊的準確性,並與美國預防服務工作組(USPSTF)的指導方針進行比較。研究發現,71.7%的標準與USPSTF建議一致,但有15%的資訊不準確或不相關,特別是在針對年長者的回應中。雖然ChatGPT的資訊大致符合官方指導,但仍有顯著差距,提醒使用者在參考AI生成的癌症篩檢資訊時,應諮詢專業醫療人員。 PubMed DOI


站上相關主題文章列表

一個新的醫療保健聊天機器人已經開發,使用了大型語言模型和癌症實踐指南,為患者提供正確的健康資訊。這個機器人整合了117萬個標記的元數據集,並在Python 3.9中實施AI引導。為了確保擴展性,採用了OpenAI和LangChain框架,ChatGPT3.5提供了用戶友善的對話。從2023年9月到2024年1月,用戶可以選擇癌症類型和語言進行互動,回應的表現評分為90.98 ± 4.02。這個AI引導機器人的目標是幫助癌症患者快速獲得正確的醫療資訊。 PubMed DOI

這項研究評估了大型語言模型(LLMs)驅動的聊天機器人,如ChatGPT 3.5、CoPilot和Gemini,在提供前列腺癌資訊的有效性,並與官方病人指南進行比較。研究使用25個專家驗證的問題,根據準確性、及時性、完整性和可理解性進行評估。結果顯示,ChatGPT 3.5的表現優於其他模型,證明其為可靠的資訊來源。研究強調在健康領域持續創新AI應用的重要性,並建議未來探討AI回應中的潛在偏見及其對病人結果的影響。 PubMed DOI

子宮頸癌和乳腺癌對女性健康影響深遠,常因污名化和錯誤資訊導致診斷延遲。為評估ChatGPT對這些癌症的回答準確性,進行了一項線上調查,並與十位醫生的回答進行比較。結果顯示,ChatGPT在準確性上表現優於醫生,但在一致性和可讀性方面仍有待加強。整體而言,ChatGPT在提供初步資訊上具潛力,但未來需改善其可靠性和一致性,以更好地協助有健康問題的個體。 PubMed DOI

這項研究指出,像 ChatGPT 這樣的 AI 平台在病人教育,特別是甲狀腺癌管理中越來越重要。研究人員設計了 50 個問題,評估 ChatGPT 的回答在準確性、全面性、人性化、滿意度和可讀性等方面的表現。結果顯示,使用「統計數據和參考文獻」的提示能產生最準確的答案,而「六年級水平」的提示則讓內容更易懂。不過,沒有特定提示的回答通常較複雜。雖然大部分引用自醫學文獻,但仍有少部分錯誤資訊,因此監督 AI 內容的準確性非常重要。 PubMed DOI

這項研究評估了ChatGPT-3.5在回答口腔癌相關問題的準確性,因為早期診斷對患者結果影響重大。研究中提出20個問題,並由醫療專家評估其回答。結果顯示,51.25%的答案被評為非常好,46.25%為好,僅2.5%可接受。專家評分間無顯著差異。雖然ChatGPT提供的資訊可靠,但引用的81篇文獻中,只有13篇是合法的科學文章,10篇為假文獻,其餘則來自各種網站。總體而言,ChatGPT的資訊值得參考,但需謹慎對待其引用來源。 PubMed DOI

這項研究評估了多款AI聊天機器人在提供前列腺癌(PrCA)決策資訊的效果,包括ChatGPT-3.5、ChatGPT-4.0、Microsoft Copilot等。研究重點在於回應的準確性、完整性、可讀性和可信度,特別針對低識字率族群及高風險的非裔美國男性。結果顯示,雖然資訊準確,但完整性和可讀性各有差異。Microsoft Copilot Pro在標準篩檢問題上表現最佳,而Microsoft Copilot則在低識字率回應中表現突出。總體來說,AI聊天機器人可作為前列腺癌篩檢資訊的輔助資源,但仍需醫療專業指導。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

「Prostate Cancer Info」AI聊天機器人回答前列腺癌篩檢問題時,大多內容正確且符合台灣常用語,74%答案完整,閱讀難度也不高。不過,有些重要資訊還是會漏掉。這類AI可以當作補充參考,但不能取代醫師專業建議,遇到健康問題還是要找醫生討論。 PubMed DOI

這項研究發現,ChatGPT-4.0在乳癌治療建議上,只有46%完全符合專家團隊意見,且重複問答一致性僅39%。它在早期乳癌表現較好,但遇到複雜或基因相關情境就明顯不足,常缺乏臨床細節。總結來說,目前ChatGPT在乳癌多專科照護上,準確度和穩定性都有限,使用時要特別小心。 PubMed DOI

這項研究比較四款免費AI聊天機器人回答肝癌相關問題的表現,發現它們雖然能提供大致正確且無偏見的資訊,但在資料來源、治療細節和說明清楚度上有差異。AI回答可作為參考,但仍需專業醫師把關,不能取代醫療建議。 PubMed DOI