原始文章

這項研究評估了ChatGPT在提供肺動脈高壓(PAH)相關資訊的準確性與友善度。研究者從20位PAH患者的常見疑慮中,向ChatGPT提出八個問題,並由專家評估其回應的信任度、價值與風險。結果顯示,回應通常可靠且有價值,平均信任度為8.4,價值為7.9,感知風險則較低,平均為2.1。不過,回應的可讀性被評為「困難」,平均年級水平為13.52。因此,雖然ChatGPT能提供有用資訊,但患者仍需諮詢醫療專業人員以獲得個人化建議。 PubMed DOI


站上相關主題文章列表

ChatGPT是一個新的人工智慧系統,改變了資訊存取的方式。專家們評估了它對心臟相關領域虛擬病人問題的回應,發現它們是可信且有價值的,有些人甚至認為比Google更有價值。這些回應因其複雜性而受到讚賞,但有時也被指出是不完整或具有誤導性。 PubMed DOI

研究探討ChatGPT在提供心血管疾病健康建議的能力,發現回應品質不一,甚至有危險的不正確情況。使用人工智慧提供健康建議可能加劇健康不平等,增加醫療系統壓力。 PubMed DOI

這項研究評估了ChatGPT對勃起功能障礙(ED)相關問題的回答,包括準確性、易讀性和可重複性。ChatGPT在疾病流行病學和治療風險以及諮詢方面提供了準確的回答,但對治療選項的理解不完整。回答通常易讀,但有時對一般患者來說過於專業。在不同問題領域中,可重複性有所不同。 PubMed DOI

研究發現ChatGPT在心臟衰竭問答方面表現優異,GPT-4回答準確全面,GPT-3.5表現也不錯。這些模型展現高度可信度,可能成為心臟衰竭患者重要資源,但仍需進一步驗證確保安全公平。 PubMed DOI

研究發現ChatGPT對心房纖維顫動問題的回答大多正確,但準確性受提示影響。友善的提示可提高回答準確性,但缺乏參考資料。ChatGPT有潛力用於患者教育,但需改進提供來源資料的能力,並持續監控AI功能,以確保最大效益並降低風險。 PubMed DOI

研究使用Google Forms問卷調查30位醫師對房顫的看法,並將問題輸入ChatGPT系統。結果顯示大部分回答被評為「優秀」或「非常好」,顯示AI在臨床回應上有潛力。研究指出ChatGPT是有效的房顫資訊來源,但也提到更新不頻繁和道德考量等問題。總結來說,強調AI在醫療領域扮演的重要角色。 PubMed DOI

這項研究評估了ChatGPT對肺癌問題的回答可讀性,涵蓋定義、成因、風險因素、診斷、治療和預後等。研究者向ChatGPT提出80個問題,並用不同的可讀性標準來評估其回答。結果顯示,這些回應的可讀性屬於中等,通常在「大學」水平或以上,對患者來說不易理解。研究建議未來的ChatGPT版本應更針對不同教育背景和年齡層,以提升醫療資訊的可及性。 PubMed DOI

這項研究評估了ChatGPT對於哮喘常見問題的回答能力,重點在於其可靠性、可接受性和可讀性。研究人員從全球哮喘倡議組織收集了30個問題,並詢問ChatGPT兩次以檢查一致性。五位內科醫師評估了這些回答,結果顯示93.33%的回答被認為可靠,平均評分為3.65分(滿分4分)。不過,78.3%的回答對患者可接受,但可讀性較差,顯示仍需改進,以便更適合患者使用。 PubMed DOI

這項研究評估了ChatGPT在提供哮喘資訊的可靠性,考量到人工智慧在醫療領域的應用。研究分析了ChatGPT對26個哮喘相關問題的回答,醫療專業人員對其準確性進行評分,結果顯示約81%的回答得分4分以上,整體中位數得分為4,顯示出高準確性。不過,部分回答仍有輕微不準確,且缺乏深度,無法引用來源或即時更新,因此不應取代專業醫療建議。未來研究可探討其對不同使用者的有效性。 PubMed DOI

這項研究評估了ChatGPT在小兒重症監護病房(PICU)中,對父母問題的回應品質。研究針對三位不同病況的病人,檢視八個常見問題的回答。六位醫師根據準確性、完整性、同理心和可理解性進行評估。結果顯示,ChatGPT的回應普遍高品質,準確性和同理心得分均為5.0,且97%的問題得到完整回答。研究顯示,ChatGPT能有效融入病人特異性資訊,顯示其在醫療溝通中的潛力。 PubMed DOI