原始文章

這項研究探討患者對AI醫生與人類醫生建議的遵從度,包含535名參與者。結果顯示,參與者對AI醫生的建議遵從度較低,且當回應速度較慢時,參與者認為人類醫生的健康益處更大,且更以患者為中心,對AI醫生則相反。這顯示醫療提供者的類型、資訊支持程度及回應速度對患者遵從醫療建議有顯著影響。 PubMed DOI


站上相關主題文章列表

研究探討使用類似ChatGPT的聊天機器人在醫患溝通的可行性。參與者區分機器人和人類回應,對機器人信任度中等,尤其在回答低風險問題時。結果顯示機器人可能在醫療中扮演更多角色,但仍需進一步研究。 PubMed DOI

研究比較了患者對風濕病問題的大型語言模型(LLM)聊天機器人和醫師回答的評價。結果顯示,患者認為兩者在詳細度和易讀性上沒有太大差異。但風濕病專家卻認為AI回答在詳細度、易讀性和準確性上比醫師回答差。患者和醫師對AI回答的喜好有所不同,患者更難分辨AI生成的答案。總結來說,患者對AI回答的看法與醫師相似,但風濕病專家則認為AI回答表現較差。 PubMed DOI

在一項研究中,美國持牌醫師使用了一個大型語言模型人工智慧系統,協助做出關於不同族群演員胸痛病例的臨床決策。這個人工智慧建議提高了決策的準確性,並沒有增加偏見。醫師對於在臨床決策中使用人工智慧工具持開放態度。 PubMed DOI

研究發現,AI模型對醫師診斷急性呼吸衰竭有影響。看標準AI模型醫師表現較好,但看偏見AI模型表現下降。即使有解釋,偏見AI模型也無法改善。標準AI提升準確性,偏見AI則降低。 PubMed DOI

研究探討使用 AI 數位代理人如 ChatGPT,協助醫師進行病患諮詢。透過訪談病患和醫師,評估三種數位代理人:沉默專家、溝通專家和數位伴侶。雖然兩方持開放態度,但也有保留意見。確定了九項數位代理人的設計需求,以支持諮詢、治療依從性和健康素養。 PubMed DOI

這項研究探討醫學生在與大型語言模型(如ChatGPT)和人類教練互動時,對診斷決策的影響。研究對象為158名來自柏林查理大學的四年級醫學生,他們被分配到不同的互動方式,並接受相關訓練。研究將評估資訊搜尋、假設考量、診斷準確性及信心水平等因素,並使用線性混合效應模型進行統計分析。研究已獲倫理審查批准,預期結果將為人工智慧在醫學診斷中的應用提供重要見解,並將發表於同行評審期刊。 PubMed DOI

這項研究顯示,AI生成的醫療建議相比人類醫師的建議,存在明顯的偏見。在兩項研究中,2,280名參與者對不同來源的醫療建議進行評估,結果發現標示為AI或人類與AI結合的建議,被認為不如人類醫師的建議可靠且缺乏同理心。參與者對有AI參與的建議表現出較低的遵循意願,顯示出數位醫療建議中普遍存在反AI的偏見。這強調了未來研究需要探索減輕這種偏見的策略,以發揮AI在醫學領域的潛力。 PubMed DOI

人工智慧技術在病患照護上有很大潛力,尤其在診斷、精神疾病治療和認知測試解讀等方面。雖然進展顯著,但仍需進一步研究其在醫療中的優缺點。一項研究比較了人工智慧(Chat-GPT 3.5)和臨床醫師對癡呆症相關問題的回答,結果顯示人工智慧在易懂性和深度上表現更佳,平均評分為4.6/5,而臨床醫師則為4.3、4.2和3.9。儘管人工智慧的回答質量高,但仍需注意錯誤資訊和數據安全等問題。總之,人工智慧在醫療溝通上有潛力,但需謹慎對待其限制。 PubMed DOI

這項研究比較了AI語言模型ChatGPT與專家醫生在健康建議的有效性和安全性。研究涵蓋100個健康問題,結果顯示: 1. **同理心與實用性**:患者認為ChatGPT在同理心(4.18對2.7)和實用性(4.04對2.98)上表現更佳。 2. **正確性**:ChatGPT的正確性得分(4.51對3.55)也優於專家。 3. **潛在危害**:專家指出AI的有害建議比例較低,但患者對這些風險的認知不足。 4. **性別差異**:女性對同理心的評價高於男性。 總體而言,ChatGPT在協助患者解決健康問題上表現出色,但患者需謹慎識別潛在風險。 PubMed DOI

這項研究探討了患者對人工智慧(AI),特別是大型語言模型的信心,於臨床泌尿科環境中進行。300名患者與基於GPT-4的聊天機器人互動後,填寫調查,評估AI與泌尿科醫生在歷史採集、診斷、治療建議等方面的表現。結果顯示,患者偏好AI在諮詢時間分配,但在其他能力上更信任醫生,尤其是治療建議和減輕焦慮。年齡對AI信心無影響,顯示技術對各年齡層皆易於接觸。研究強調AI是人類專業知識的補充,而非替代品。 PubMed DOI