原始文章

這項研究評估了ChatGPT-3.5在回答口腔癌相關問題的準確性,因為早期診斷對患者結果影響重大。研究中提出20個問題,並由醫療專家評估其回答。結果顯示,51.25%的答案被評為非常好,46.25%為好,僅2.5%可接受。專家評分間無顯著差異。雖然ChatGPT提供的資訊可靠,但引用的81篇文獻中,只有13篇是合法的科學文章,10篇為假文獻,其餘則來自各種網站。總體而言,ChatGPT的資訊值得參考,但需謹慎對待其引用來源。 PubMed DOI


站上相關主題文章列表

子宮頸癌和乳腺癌對女性健康影響深遠,常因污名化和錯誤資訊導致診斷延遲。為評估ChatGPT對這些癌症的回答準確性,進行了一項線上調查,並與十位醫生的回答進行比較。結果顯示,ChatGPT在準確性上表現優於醫生,但在一致性和可讀性方面仍有待加強。整體而言,ChatGPT在提供初步資訊上具潛力,但未來需改善其可靠性和一致性,以更好地協助有健康問題的個體。 PubMed DOI

這項研究評估了ChatGPT對常見鼻科問題的回答準確性,並與專業外科醫師的回答進行比較。ChatGPT的平均得分為1.65分(滿分3分),顯示部分回答可接受,但多數不正確或不完整。10個問題中,只有2個回答與專家一致,8個則被認為不足。評分者之間的可靠性中等,且能以97.5%的準確率區分ChatGPT和人類回答。這些結果顯示ChatGPT在醫學領域提供準確資訊的能力有限。 PubMed DOI

這項研究評估了五款AI聊天機器人對口腔癌問題的回應,包括Bing、GPT-3.5、GPT-4、Google Bard和Claude。經過專家評估,GPT-4獲得最高質量分數(17.3),而Bing最低(14.9)。Bard在可讀性上表現最佳,GPT-4和Bard在同理心及引用準確性方面也表現突出。整體來看,GPT-4提供的回應質量最高,但大多數聊天機器人在同理心和準確引用上仍有待加強。 PubMed DOI

這項研究評估了ChatGPT對甲狀腺癌相關問題的回答品質,因為患者常透過網路尋求健康資訊。八位醫療專家對ChatGPT的20個回答進行評分,結果顯示只有57%的回應準確,56%完整,52%令人滿意。質性分析指出,回應中對飲食和碘攝取的過度強調,以及甲狀腺手術和放射性碘治療風險的資訊不完整或不準確。研究結果顯示,ChatGPT目前並不可靠,無法在無監督下提供甲狀腺癌的患者資訊。 PubMed DOI

這項研究探討了ChatGPT-4在回答口腔及顏面外科疾病問題的有效性,這些疾病影響全球約35億人。研究使用思維鏈(CoT)方法,評估其在提升公眾對疾病預防和早期檢測認識的表現。專家從全國牙醫執照考試中選取了130道開放式問題和1,805道選擇題。結果顯示,CoT方法顯著提升了ChatGPT-4在開放式問題的準確性和整體表現,選擇題準確性也提高了3.1%。研究強調,ChatGPT-4不應取代醫療專業人員。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究發現,ChatGPT 3.5在回答HPV相關口咽癌問題時,大多數答案正確,但有14%有誤。雖然引用的文獻多為真實資料,但近半引用格式錯誤,且用詞偏難,超過一般病人能理解的程度。整體來說,ChatGPT表現不錯,但文獻引用和用語還需改進。 PubMed DOI

Bagde 等人(2023)系統性回顧發現,ChatGPT 在醫學和牙醫領域的研究、教育及臨床決策上有潛力,但目前仍有準確性、可靠性和倫理等問題待解決,需更多高品質研究來驗證其效益。 PubMed DOI

研究發現,ChatGPT在回答中國病患常見的食道癌問題時,預防和診斷類的答案較正確,但治療和預後相關的答案有三成多部分錯誤。雖然沒有完全錯誤的回答,但在治療建議上還不夠可靠,建議未來需再改進才能推薦給病患使用。 PubMed DOI

這項研究發現,ChatGPT-4.0在乳癌治療建議上,只有46%完全符合專家團隊意見,且重複問答一致性僅39%。它在早期乳癌表現較好,但遇到複雜或基因相關情境就明顯不足,常缺乏臨床細節。總結來說,目前ChatGPT在乳癌多專科照護上,準確度和穩定性都有限,使用時要特別小心。 PubMed DOI