原始文章

這項研究評估了ChatGPT-4對酒精使用障礙(AUD)問題的回應品質。研究開發了64個問題,結果顯示ChatGPT-4的回應中有92.2%是基於證據的,但只有12.5%提供了外部資源推薦。不過,對於特定地點的問題,所有回應都能指引使用者到合適的資源,如NIAAA治療導航器。此外,85.9%的後續回應也包含支持性文件。整體來看,ChatGPT-4在提供AUD資訊方面展現了良好的能力,可能成為尋求相關資訊者的有用線上資源。 PubMed DOI


站上相關主題文章列表

精神科醫師和心理治療師使用 ChatGPT 進行測試,評估其在成癮、人格障礙、ADHD和自殺危機等主題上的回答品質。他們想滿足對人工智慧工具的好奇心,同時確保回答安全且符合患者及其家人的需求。文章討論了他們與 ChatGPT 的對話,並與現有文獻進行了比較。 PubMed DOI

ChatGPT等大型語言模型在醫學教育上有利有弊。研究指出,在心理健康和物質濫用教育中,ChatGPT能提供內容,但仍需人監督確保正確性。雖無法直接回答消費者問題,但教育工作者和研究人員可謹慎運用。透明度和評估對象反饋至關重要。 PubMed DOI

研究評估了ChatGPT在回答生活方式相關疾病查詢時的表現,結果顯示ChatGPT在準確性和指導性方面表現良好,且回答充滿正能量。研究建議ChatGPT可提供準確信息,讓患者在就醫前獲得初步指導。 PubMed DOI

研究評估了ChatGPT對耳鼻喉科醫師提供喉咽逆流症(LPRD)資訊的效果。結果顯示ChatGPT-4在定義LPRD、討論臨床表現和治療方面表現良好,但在特定細節準確性較低。研究建議,考慮到病患尋求網路健康資訊的趨勢,ChatGPT-4可能對LPRD的一般資訊有幫助。 PubMed DOI

研究比較了ChatGPT 3.5和ChatGPT 4回答醫學考試問題的表現,結果發現ChatGPT 4在準確度(85.7% vs. 57.7%)和一致性(77.8% vs. 44.9%)方面有明顯進步。這顯示ChatGPT 4在醫學教育和臨床決策上更可靠。但人類醫療服務仍然不可或缺,使用AI時應持續評估。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0對AAO-HNS關於MD的FAQs回答。ChatGPT-4.0在全面性和資源質量較佳,但可讀性有問題。兩者在更全面、易讀且少誤導方面仍有進步空間。 PubMed DOI

研究發現ChatGPT在提供實驗室醫學資訊上表現優異,75.9%的評估者偏好它的回答,認為提供全面且正確的資訊。相較之下,醫學專業人士的回答則以簡潔見長。ChatGPT可能在回答醫學問題上勝過專業人士,但仍需進一步研究確認其實用性,並探索整合到醫療保健中的可能性。 PubMed DOI

生成式人工智慧系統如ChatGPT在臨床環境中對治療物質使用障礙(SUDs)有潛力。本研究探討其在回答相關問題的有效性,透過線上康復論壇收集提問,並使用ChatGPT和Meta的LLaMA-2生成回應。雖然臨床醫師評價這些回應為高品質,但研究中發現了一些危險的錯誤資訊,如忽略自殺意念和提供不正確的求助熱線。這些結果顯示在醫療環境中使用此類人工智慧的風險,強調需進一步保障措施和臨床驗證。 PubMed DOI

這項研究評估了ChatGPT-4在提供脆弱族群感染疾病抗生素使用資訊的準確性。研究發現,對於一般問題,只有38.1%的回答是正確的,而在特定族群中錯誤率更高:孕婦11.9%、抗生素過敏36.1%、老年人27.5%、腎病患者79.2%及兒童43.8%。這些結果顯示使用ChatGPT的建議時需謹慎,並強調醫療專業人員驗證資訊的重要性,以確保治療的準確性與安全性。 PubMed DOI

這項研究評估了ChatGPT對COVID-19引起的嗅覺功能障礙的回應質量。使用30個相同問題,並在四種不同提示下詢問ChatGPT,結果顯示480個回應中有75.8%被評為「至少良好」。不同提示類型影響回應質量,針對八年級學生和患者的回應更易理解。總體來看,ChatGPT的答案大多準確,但表述方式會影響回應的質量和複雜性。研究認為,ChatGPT在患者教育上有潛力,但回應常過於複雜。 PubMed DOI