原始文章

這項研究探討大型語言模型(如GPT-4)如何提升術後病理報告的可讀性與理解度。研究分析了698份來自四家醫院的病理報告,重點在惡性腫瘤。透過創建詮釋性病理報告(IPRs)模板,發現使用IPRs後,病人的理解分數從5.23提升至7.98,醫生與病人溝通時間也減少超過70%。雖然未直接測量病人的治療結果,但改善的理解度和溝通效率可能對病人的參與度有正面影響,顯示人工智慧在醫療溝通中的潛力。 PubMed DOI


站上相關主題文章列表

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究探討大型語言模型(LLMs)生成的簡化放射學報告對腫瘤科病人的影響,分為兩個階段進行。第一階段測試五種LLMs,結果顯示Claude Opus-Prompt 3表現稍佳。第二階段中,100名病人分為兩組,一組收到原始報告,另一組則收到簡化版本。調查結果顯示,簡化報告的病人對疾病理解更好,對醫療狀況感到更有信心。雖然少數報告需修正,但顯示LLMs能有效簡化醫療資訊,仍需人類監督。整體而言,研究建議LLMs可增強病人對健康資訊的理解。 PubMed DOI

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

這項研究探討使用本地部署的大型語言模型(LLM)自動回答醫療問題,特別針對甲狀腺癌的外科病理報告。研究比較了LLM與人類審閱者在提取關鍵資訊的表現。結果顯示,人類審閱者的一致率高達99%,而LLM的平均一致率為89%。在效率方面,LLM回答問題的時間約19.56分鐘,遠低於審閱者的170.7分鐘和115分鐘。研究顯示LLM能有效協助醫療問題回答,並有潛力進一步改善數據提取能力。 PubMed DOI

這項研究發現,用GPT-4簡化腫瘤放射科報告後,病患閱讀更快、理解更好,醫病溝通也更順暢。結果顯示,像GPT-4這類AI工具,能有效提升醫療溝通品質,幫助病患更容易取得和理解複雜醫療資訊,進而改善治療成效。 PubMed DOI

這項研究用GPT-4o和Llama3.3等大型語言模型,測試它們在227份人工合成病理報告中辨識和分類癌症的能力。結果顯示,這些AI模型在準確率、敏感度和特異性上都比傳統方法更優秀,有機會讓癌症登記流程更快、更可靠,提升公共衛生和臨床照護品質。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

這項研究用 GPT-4(透過 Azure)把荷蘭文放射科報告簡化成 B1 等級,讓病患更容易看懂。經過專家審查後,AI 生成的報告不只正確,病患也更滿意、理解度更高,大多數人都比較喜歡簡化版。這方法能幫助醫病溝通,減輕醫師負擔,也讓病患能做出更有根據的決定。 PubMed DOI

**重點摘要:** 這項研究評估了GPT-4將婦科手術報告簡化給病人閱讀的能力。簡化後的報告有助於病人更了解手術過程和結果,但臨床專家也指出醫療正確性方面有疑慮。雖然AI生成的摘要在病人衛教上很有潛力,但在常規用於術後照護和出院系統前,仍需謹慎監督以確保醫療內容的精確性。 PubMed DOI

這項研究發現,像GPT-4這類大型語言模型能把放射科醫師的摘要快速轉成完整CT報告,速度比傳統方式快,品質也差不多。雖然大多數錯誤跟模板有關,重大臨床錯誤很少見,但還是建議要有人工審查,確保報告正確無誤。 PubMed DOI