原始文章

越來越多患者在網上尋找健康資訊,尤其是像佩羅尼氏病這種敏感疾病。大型語言模型(LLM)聊天機器人展現了提供資訊的潛力,但對於PD的準確性和可讀性仍不明朗。研究評估了四個LLM在回答PD查詢時的資訊質量,結果顯示在有提示的情況下,資訊質量提升至高水平,但平均閱讀水平為12.9年級,超過大多數患者的理解能力。雖然LLM在患者教育上有潛力,但仍需臨床背景和人類提示來提升效果,並需教育患者與醫生如何有效互動。 PubMed DOI


站上相關主題文章列表

這項研究評估了大型語言模型(LLMs)驅動的聊天機器人,如ChatGPT 3.5、CoPilot和Gemini,在提供前列腺癌資訊的有效性,並與官方病人指南進行比較。研究使用25個專家驗證的問題,根據準確性、及時性、完整性和可理解性進行評估。結果顯示,ChatGPT 3.5的表現優於其他模型,證明其為可靠的資訊來源。研究強調在健康領域持續創新AI應用的重要性,並建議未來探討AI回應中的潛在偏見及其對病人結果的影響。 PubMed DOI

本研究探討人工智慧,特別是自然語言處理模型如ChatGPT,對於男性根治性前列腺切除術後勃起功能障礙(ED)患者的教育與知情同意的潛力。結果顯示,雖然ChatGPT能提供有關陰莖假體植入手術的資訊,但其質量和可理解性仍不足以幫助患者做出知情決策。評估結果顯示資訊的清晰度高,但複雜主題的理解度較低,顯示出改進AI生成內容的必要性。 PubMed DOI

這項研究評估大型語言模型(LLMs)在提供前列腺癌放射治療病人教育的有效性,並納入臨床醫生和病人的反饋。研究中針對六個常見問題,評估了ChatGPT-4、Gemini、Copilot和Claude的回答。結果顯示,雖然所有模型的回答被認為相關且正確,但可讀性較差。病人對ChatGPT-4的評價較高,認為其回答易懂且有信心。整體而言,LLMs在病人教育上有潛力,但準確性和可讀性仍需改進,未來需進一步研究以提升其效益。 PubMed DOI

這項研究評估了大型語言模型(LLM)聊天機器人對於常見病人問題(如下背痛)的回答準確性和可讀性。分析了30個問題,結果顯示120個回答中,55.8%準確,42.1%不準確,1.9%不清楚。治療和自我管理的回答較準確,風險因素則最不準確。可讀性平均得分為50.94,顯示文本相對困難。此外,70%-100%的回答都有健康建議的免責聲明。總體而言,雖然LLM聊天機器人有潛力,但準確性和可讀性差異可能影響病人理解。 PubMed DOI

這項研究評估了ChatGPT在提供重建泌尿學資訊的有效性,重點在於資訊質量、錯誤資訊、可讀性及提示工程的影響。研究發現: - **資訊質量**:平均DISCERN分數為3.63,顯示健康資訊質量中等。 - **可讀性**:回應的可讀性相當於大學畢業生,可能影響某些病人的理解。 - **可理解性與可行性**:可理解性高達85.3%,但可行性僅37.2%,顯示資訊雖清晰但缺乏實用步驟。 - **錯誤資訊**:錯誤資訊極少,平均分數為1.23。 - **提示工程**:精煉提示可顯著改善回應質量與可理解性,且不增加錯誤資訊。 總體而言,ChatGPT-4o在重建泌尿學病人教育上有潛力,但仍需關注可行性與閱讀水平。 PubMed DOI

這項研究探討了患者與GPT-4驅動的聊天機器人在泌尿科諮詢中的互動。從2024年2月到7月,共招募300名患者,評估聊天機器人提供的醫療資訊質量。292名參與者完成了研究,結果顯示大多數患者認為聊天機器人的回應有用且易懂,但人類醫生的回答評價較高。53%的參與者偏好大型語言模型的問答能力。研究指出,這類模型可增強患者教育,並減輕醫療提供者的時間壓力。限制包括潛在的偏見和抽樣問題。 PubMed DOI

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

這項研究評估了幾個大型語言模型(LLM)聊天機器人,包括Google、Bard、GPT-3.5和GPT-4,對於慢性健康狀況的病人教育效果。研究針對高血壓、高脂血症、糖尿病、焦慮和情緒障礙等五個常見健康問題進行評分。結果顯示,GPT-3.5和GPT-4在內容的全面性和質量上表現優於Bard和Google,但後者的回應更易讀。整體來看,這項研究建議LLM工具在健康查詢中可能比傳統搜尋引擎提供更準確的信息,適合用於病人教育。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Gemini和Llama—對早洩問題的回應,分析了它們對25個常見問題的回答。可讀性透過FRES和FKGL分數評估,質量則用修改版DISCERN (mDISCERN)和EQIP分數來衡量。結果顯示,三者的可讀性相似,但在質量上,Llama得分最高(72.2),Gemini次之(67.6),ChatGPT最低(63.1),差異顯著。mDISCERN方面,ChatGPT中位數為2,Gemini和Llama均為3,顯示資訊質量的明顯差異。總體來看,Llama在質量上表現最佳。 PubMed DOI

「Prostate Cancer Info」AI聊天機器人回答前列腺癌篩檢問題時,大多內容正確且符合台灣常用語,74%答案完整,閱讀難度也不高。不過,有些重要資訊還是會漏掉。這類AI可以當作補充參考,但不能取代醫師專業建議,遇到健康問題還是要找醫生討論。 PubMed DOI