原始文章

這項研究比較ChatGPT-3.5、ChatGPT-4和Gemini在產生早產兒視網膜病變衛教資料的表現。三款AI都能產出正確、易懂的內容,但ChatGPT-4在將資料改寫成國中一年級程度時,品質和可靠性最好。整體來說,ChatGPT-4特別適合協助家長取得高品質、易讀的衛教資訊。 PubMed DOI


站上相關主題文章列表

對於早產兒視網膜病變(ROP)相關問題,經評估後發現ChatGPT-4表現最好,回答最準確可靠;BingAI和Gemini在不同方面也有優勢。ChatGPT-4雖然用詞較複雜,但提供詳盡可信賴的回答。總括而言,這些模型通常提供正確資訊。 PubMed DOI

這項研究評估了兩個大型語言模型,ChatGPT-4 和 Google Gemini,針對視網膜脫落問題的可讀性和準確性。分析了13個不同難度的問題,並由十位專家評分。結果顯示,Google Gemini 較易理解,但 ChatGPT-4 在正確答案上表現更佳,尤其是困難問題。ChatGPT-4 在八個問題上優於 Google Gemini,且在簡單和困難問題上都獲得更高評分。整體而言,這兩個 AI 工具有效提供準確的醫療資訊,建議可增強醫療護理。 PubMed DOI

這項研究評估了土耳其眼科協會針對早產兒視網膜病變的病患教育材料可讀性,並與大型語言模型(如GPT-4.0、GPT-4o mini和Gemini)生成的內容進行比較。結果顯示,TOA的材料可讀性超過六年級,而GPT-4.0和Gemini則更易讀。經調整後,GPT-4.0的可讀性改善,且在準確性和全面性上得分最高,Gemini則最低。研究指出,GPT-4.0在創建可及的病患教育材料上有潛力,但使用LLMs時需考慮地區醫療差異和資訊準確性。 PubMed DOI

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

這項研究評估了三個大型語言模型—ChatGPT-3.5、ChatGPT-4o 和文心一言—在分析兒童近視治療的有效性。研究使用100份兒童病歷,模型評估介入必要性並建議治療方案。結果顯示,ChatGPT-4o 的準確率達90%,GQS為4.4,表現優於其他模型,尤其在處理不完整數據時更佳。總體而言,ChatGPT-4o 展現出卓越的準確性和臨床安全性,可能成為兒童眼科的有用決策支持工具,但仍需專家監督。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0生成的病人教育材料(PEMs)在可讀性上的表現,針對常見手部疾病進行分析。研究發現,ChatGPT 4.0在啟發階段後,有28%的內容達到六年級閱讀水平,而3.5則沒有生成合適的內容。整體來看,4.0在所有可讀性指標上均優於3.5,顯示出其在提升病人教育和健康素養方面的潛力,未來隨著進一步改進,這一潛力將更為明顯。 PubMed DOI

這項研究比較 ChatGPT-3.5、ChatGPT-4o 和 Google Gemini 在製作兒童近視衛教資料的表現。結果發現,三款 AI 都能產出正確、易懂的內容,但只有 ChatGPT-3.5 和 4o 能穩定達到國小六年級的閱讀程度。ChatGPT-4o 在內容品質和易讀性上表現最好,但三者都缺乏高度可執行的建議。整體來說,ChatGPT-4o 最有潛力用來優化兒童近視衛教資料。 PubMed DOI

這項研究發現,ChatGPT-4o產生的兒童眼科手術衛教資料,無論是英文還是西班牙文,品質都還不如美國兒童眼科與斜視協會(AAPOS)提供的內容,特別是在正確性、時效性和語氣上。不過,兩者的可讀性差不多,未來隨著AI進步,品質有望提升。 PubMed DOI

最新研究比較四種AI模型在腎臟科問題上的表現,發現GPT-4o最準確且穩定,GPT-4同理心最佳,PaLM 2和Gemini 1.0 Ultra則在部分任務表現突出。結果顯示,生成式AI有助於提升腎臟科病患的溝通與衛教,不同模型可依臨床需求選用。 PubMed DOI

這項研究比較了 ChatGPT 3.5 和 Google Gemini 1.0 Pro 在生成視網膜門診紀錄的表現。結果顯示,ChatGPT 3.5 不論在轉錄準確度還是紀錄品質都優於 Gemini。不過,兩者偶爾還是會出現資訊錯誤。整體來說,這類 AI 有助減輕醫師紀錄負擔,但還需要再優化才能更安心使用。 PubMed DOI