原始文章

這項研究比較了通用的 ChatGPT-4 模型與客製化的手術胃食道逆流病工具 (GTS) 在提供胃食道逆流病手術建議的表現。結果顯示,GTS 在外科醫生和病人的詢問中準確率達到 100%,而通用模型對外科醫生的準確率僅為 66.7%,對病人則為 47.5%。GTS 的建議基於證據,符合 2021 年的指導方針,顯示客製化大型語言模型在臨床指導中的潛力。未來需進一步研究其在實際臨床環境中的有效性。 PubMed DOI


站上相關主題文章列表

研究發現使用ChatGPT在結腸鏡後管理上有潛力,醫師回饋正面。ChatGPT提供準確指引,有助於醫師做出明智決策,增進遵循度。未來可研究將ChatGPT整合至電子病歷,評估在不同醫療環境中的效益。 PubMed DOI

AI聊天機器人如ChatGPT可輔助提供病人資訊,支援臨床醫師,但在回答胃食道逆流病問題時準確性有待提升。研究指出,ChatGPT在處理GERD提示方面多數回答適切(91.3%),但也有不準確(8.7%)和不一致情況。大部分回答提供具體指導(78.3%),病人認為相當有幫助(100%)。這顯示AI在醫療領域有潛力,但也揭示了目前的限制。 PubMed DOI

研究發現使用ChatGPT-4在正顎手術諮詢中有幫助,提供重要資訊,但強調個人化醫療建議的重要性。雖然ChatGPT-4有用,但不能取代醫療專業人員的專業知識。它可支持患者和醫師應對手術複雜性。 PubMed DOI

人工智慧如ChatGPT在醫療方面有潛力,尤其在診斷和治療上。研究顯示,在外科知識問題上,ChatGPT的表現接近或超越人類水準,尤其在多重選擇問題上更優秀,提供獨到見解。然而,有時答案可能不正確,且回應可能不一致。儘管表現令人驚豔,但仍需進一步研究以確保在臨床上的安全使用。 PubMed DOI

研究評估了ChatGPT模型在脊椎手術抗生素使用方面的應用,發現GPT-4.0比GPT-3.5更準確,並更頻繁引用指引。儘管ChatGPT能提供準確答案,但仍需謹慎應用於臨床。 PubMed DOI

研究比較了不同聊天機器人連接大型語言模型後,根據SAGES指南提供GERD手術管理建議的表現。ChatGPT-4、Copilot、Google Bard和Perplexity AI在給予GERD患者建議時的正確性有所不同。結果顯示,這些聊天機器人在遵循SAGES指南方面的表現有差異,顯示了透過LLM連接的聊天機器人在提供臨床建議上的潛力和限制。建議對LLMs進行進一步訓練,特別是在提供基於證據的健康資訊方面。 PubMed DOI

研究評估人工智慧回答肥胖手術問題的品質和易讀性,使用不同LLMs提供答案,由肥胖手術醫生評估。結果顯示像ChatGPT-4這樣的模型能提供適當回答,但表現有差異。臨床使用AI需謹慎,提供監督很重要。未來需進一步研究LLMs如何改善肥胖手術醫療服務和決策。 PubMed DOI

研究比較了三個大型語言模型(LLMs)- ChatGPT-3.5、GPT-4和Gemini-在為整形外科患者提供術後護理建議的表現。結果顯示,這些模型提供的資訊都很準確,其中GPT-3.5在評分上表現最好。Gemini的回應更易讀、更易懂。雖然LLMs在術後護理方面有潛力,但仍需進一步研究和改進,才能成為更完善的資源。 PubMed DOI

對於ChatGPT在腹股溝疝氣修補手術的建議評估,專家與非專家的回應質量差異明顯。專家的評分較低(中位數2),而非專家的評分較高(中位數2),且這差異具統計意義(p < 0.001)。此外,聊天機器人提供的參考資料中,有一半是虛假的。儘管如此,受訪者對神經網絡在臨床決策中的潛力持樂觀態度,並普遍反對限制其醫療應用。因此,建議不要將大型語言模型作為臨床決策的主要資訊來源。 PubMed DOI

這項研究評估了ChatGPT-4在抗凝治療管理方面的準確性,特別針對接受胃腸道手術的患者,並與ChatGPT-3.5及增強檢索生成模型(ChatGPT4-RAG)比較。結果顯示,ChatGPT-4的完全準確率為30.5%,而ChatGPT4-RAG則達到75%。儘管如此,研究指出75%的準確率仍不足以獨立做臨床決策,AI應視為醫生的輔助工具,並需持續評估以保障病人隱私及醫病關係。 PubMed DOI