原始文章

這項研究評估了ChatGPT在糖尿病相關問題上,烏爾都語和英語的回答品質。結果顯示,只有3.8%的烏爾都語回答是全面的,9.4%雖然正確但不夠充分,還有47.2%包含混合資訊,正確與錯誤資料並存。準確性方面,92.5%的烏爾都語回答都不如英語的準確。這顯示ChatGPT雖然能提供有用資訊,但在醫療情境中不應單靠它,還需進一步改善烏爾都語的回答品質。 PubMed DOI


站上相關主題文章列表

肝硬化在阿拉伯國家日益嚴重。ChatGPT被測試在阿拉伯語和英語回答肝硬化問題。專家評分顯示,在阿拉伯語回答通常準確但有時不夠詳盡,有時錯誤。阿拉伯語回答準確性比英語低。ChatGPT或許對阿拉伯語使用者有幫助,但不能取代專業醫療。需進一步研究提升準確性,造福全球患者。 PubMed DOI

這項研究評估了ChatGPT對勃起功能障礙(ED)相關問題的回答,包括準確性、易讀性和可重複性。ChatGPT在疾病流行病學和治療風險以及諮詢方面提供了準確的回答,但對治療選項的理解不完整。回答通常易讀,但有時對一般患者來說過於專業。在不同問題領域中,可重複性有所不同。 PubMed DOI

研究評估了ChatGPT在回答生活方式相關疾病查詢時的表現,結果顯示ChatGPT在準確性和指導性方面表現良好,且回答充滿正能量。研究建議ChatGPT可提供準確信息,讓患者在就醫前獲得初步指導。 PubMed DOI

研究發現ChatGPT生成的西班牙文慢性疾病資訊大部分可靠,但易讀性中等困難。糖尿病和類風濕性關節炎的可靠性較高,建議改進易讀性。ChatGPT可成為西班牙語患者的資訊來源。 PubMed DOI

研究評估了ChatGPT 3.5在印度大學醫學本科社區醫學考試的表現。結果顯示,ChatGPT在回答考題時展現出色的相關性、連貫性和完整性。儘管在醫學教育上有潛力,但仍需進一步探討其可靠性和應用價值,才能廣泛運用。 PubMed DOI

研究評估了ChatGPT在回答巴基斯坦病患常見問題時的表現,特別是使用烏爾都語。儘管在英文方面表現良好,但在烏爾都語回答上有待改進,需要更清晰且科學。這顯示在協助英文能力有限的巴基斯坦病患前,AI聊天機器人如ChatGPT仍有進步空間。 PubMed DOI

研究評估了ChatGPT在Amboss問題庫的2,377個USMLE Step 1練習問題上的表現。整體準確率為55.8%,顯示問題難度與表現呈反向關係。在血清學問題上表現不錯,但心電圖相關內容表現較差,病理生理學更差。研究強調了進一步瞭解ChatGPT在醫學教育和考試中的能力和限制的重要性。 PubMed DOI

研究發現ChatGPT在回答幽門螺旋桿菌(H. pylori)問題時表現不錯,大部分答案正確。特別在預防和治療資訊方面表現突出,但有些治療資訊可能過時。總結來說,ChatGPT可作為提供準確H. pylori相關健康資訊的工具,但需要改進即時更新資訊和更正不準確之處。 PubMed DOI

研究用ChatGPT簡化放射學報告並翻譯成西班牙語、印地語和俄語,比較表現。西班牙語翻譯最準確完整,印地語表現最差。所有翻譯解釋醫學術語不如英語。俄語完整性較差,西班牙語和俄語與英語差異不大。排印錯誤影響翻譯。ChatGPT展現準確翻譯潛力,需更多訓練。此技術可改善醫療取得與降低成本。 PubMed DOI

這項研究探討了ChatGPT在回答女性尿失禁管理與治療問題的準確性與完整性,並與既定指導方針進行比較。研究於2023年9月16日進行,設計了14個相關問題。結果顯示,大部分回答被評為「正確多於錯誤」,但在準確性上與科學指導方針存在顯著不一致,許多回答缺乏必要的全面資訊。這對醫療專業人員使用人工智慧進行病人諮詢提出了擔憂。 PubMed DOI