原始文章

ChatGPT-4 回答 AMD 病患常見問題時,內容大致正確、連貫且安全,專家多給予正面評價。但還是有資訊過時或不夠完整的情況,所以目前不建議用來做 AMD 病患的日常或個人化衛教諮詢。 PubMed DOI


站上相關主題文章列表

這篇論文探討了兩個大型語言模型(LLMs),ChatGPT4 和 PaLM2,對於年齡相關黃斑變性(AMD)患者常見問題的回答效果。研究強調患者了解病情對於慢性疾病管理的重要性。從專注於 AMD 的網站整理了143個問題,並讓這兩個模型及三位眼科醫生回答。結果顯示,ChatGPT4 在臨床共識、潛在危害等方面表現優於 PaLM2,顯示出這些模型在患者教育上的潛力,但仍需謹慎使用,不能取代專業醫療建議。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在藥物諮詢服務中的表現。結果顯示,ChatGPT 3.5在80%的案例中提供了不錯的答案,而ChatGPT 4.0的表現更佳,98%的回應與醫生的回答相似或更好。不過,兩者的回應都缺乏參考文獻,有時也未能充分解決臨床相關問題。雖然ChatGPT 4.0的答案品質相當高,但在提供參考和臨床解釋方面的不足,顯示它不太適合成為臨床環境中的主要資訊來源。 PubMed DOI

這項研究評估了ChatGPT在斜視醫療方面的準確性與可讀性,使用了免費版(3.5)和付費版(4.0)。共提出34個問題,並在加州和佛羅里達州的三個時間點進行評估。結果顯示,64%的回應被認為是「可接受的」,但根據版本和地點有所不同。佛羅里達州的回應更可能被評為「不準確且可能有害」。整體來看,雖然大部分回應可接受,但準確性和可讀性仍需提升,以增強對斜視家長和病患的實用性。 PubMed DOI

這項研究評估了ChatGPT-4和Bing Chat對34個青光眼常見問題的回應,重點在適當性、準確性和可讀性。結果顯示,ChatGPT-4的適當回應比例為88.2%,高於Bing Chat的79.2%。兩者在準確性上差異不大,ChatGPT-4略高(3.86),Bing Chat為3.70。可讀性方面,兩者的回應對一般美國成年人來說都較難理解,ChatGPT-4的字數平均為316.5,明顯高於Bing Chat的61.6字。總體而言,雖然兩者都提供適當回應,但ChatGPT-4的回應較複雜且可讀性較低。 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4o對圓錐角膜相關問題的回答準確性與可讀性。研究中,兩位眼科醫生對ChatGPT-4o的30個回答進行評分,結果顯示平均準確性為4.48分,評分一致性良好。然而,回答的可讀性較高,SMOG分數為15.49,FKGL為14.95,FRE為27.41,顯示一般民眾理解上有困難。雖然ChatGPT-4o的回答準確,但語言複雜性可能影響理解,建議未來改進以提升可及性。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

這項研究發現,ChatGPT-4在回答角膜潰瘍相關問題時,對於危險因子、症狀和治療等主題表現不錯,但在分類、檢查和臨床徵象方面較弱。大多數答案被評為良好或可接受,但專家評分有些差異。整體來說,ChatGPT-4在眼科教育有潛力,但還需要加強準確度和一致性。 PubMed DOI

研究發現,ChatGPT-4在回答西班牙MIR考試的眼科題目時,正確率高達90.2%,和眼科專業人員的答案一致率也有86.41%。在專業人員監督下,ChatGPT-4能有效協助解決臨床與理論問題,有助於提升病患照護流程。 PubMed DOI

這項研究發現,ChatGPT-4o能準確、完整又清楚地回答病人關於大腸直腸癌篩檢的問題,專家和病人都給予高度評價,回答也很一致。顯示ChatGPT有潛力幫助病人了解篩檢資訊,提升參與意願。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答人工水晶體相關問題時,對簡單題目的準確率很高,但遇到難題時表現就明顯下滑。經過六個月,回答內容變得更長、更精確,評分也有提升。簡單問題的再現性很好,但複雜問題的一致性還有待加強。整體來說,ChatGPT-4.0在醫療資訊領域有潛力,但要更可靠還需要再優化。 PubMed DOI