LLM 相關三個月內文章 / 第 50 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究評估了ChatGPT在提供甲狀腺癌資訊的準確性和充分性,包括管理方式及情感支持。結果顯示,ChatGPT對甲狀腺癌的資訊掌握良好,正確率達76.66%,但在案例管理上表現不佳,建議多為一般性而非個別化。在情感支持方面,則提供了實用的指導,幫助患者及照顧者適應新診斷。總體來看,ChatGPT在資訊提供上能力中等,但情感支持方面表現有效。這是首個針對ChatGPT在此醫療背景下能力的研究。 相關文章 PubMed DOI

這項研究探討了一種三層篩選方法,利用GPT-3.5和GPT-4來提升雙相情感障礙治療的系統性回顧中標題和摘要的篩選效率。篩選分為三個層次:研究設計、目標患者及介入措施。結果顯示,GPT-4在敏感性和特異性上表現良好,顯示其在系統性回顧中的應用潛力。未來研究可考慮將此方法擴展至其他領域,以評估其更廣泛的有效性。 相關文章 PubMed DOI

這項研究探討了深下腹皮瓣(DIEP)乳房重建的資訊質量,並比較了社交媒體平台(SMPs)與大型語言模型(LLMs)如ChatGPT和Google Bard的內容。分析了50個英語和西班牙語的視頻,結果顯示LLMs的資訊質量明顯較高,ChatGPT和Google Bard的平均DISCERN分數分別為54和61.17,屬於良好質量。而SMPs的得分則低得多,顯示38%的視頻由非醫療作者製作,突顯了可靠資訊的缺口。研究強調學術整形外科醫生需提供高質量資訊以改善病患教育。 相關文章 PubMed DOI

這項研究探討了使用GPT-4模型,透過與模擬病人聊天機器人的互動,為醫學生提供病史採集技巧的反饋。研究對象為三年級醫學生,分析了106次對話中的1,894個問答對。結果顯示,GPT-4的回應在99%以上是醫學上合理的,且與人類評分者的協議幾乎完美(Cohen κ=0.832)。不過,在45個反饋類別中,有8個類別出現差異,顯示模型評估可能過於具體或與人類判斷不同。總體而言,研究認為GPT-4在提供結構化反饋上有效,並建議在醫學教育中謹慎整合AI反饋機制。 相關文章 PubMed DOI

哨兵系統是美國FDA用來監控藥物安全的重要工具,透過臨床數據來指導藥物標籤和安全通訊。然而,觀察性數據的可靠性常受到挑戰。最近,大型語言模型(LLMs)的進展為解決這些問題提供了新機會,能從電子健康紀錄中識別不良事件並支持流行病學研究。不過,LLMs的準確性依賴於有效的提示工程,且其基礎設施在醫療系統中並不普遍,可能影響數據分析的公平性。此外,LLMs可能產生不準確的信息,導致假陽性,影響監管評估。因此,雖然LLMs有潛力改善上市後監測,但仍需努力確保公平性和準確性。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4o和Gemini 1.5在小兒腎臟科多選題的表現。結果顯示,訓練前ChatGPT-4o的正確率為75.2%,優於Gemini 1.5的64.9%。經過PDF和TXT檔案訓練後,ChatGPT-4o的準確率提升至77.8%,而Gemini 1.5則顯著提高至84.7%和87.6%。雖然ChatGPT-4o基線表現強,但在特定訓練下提升不大;相對而言,Gemini 1.5在訓練後顯示出顯著改善,顯示其在資訊處理上可能更具潛力。 相關文章 PubMed DOI

本研究旨在評估ChatGPT在醫學生遠距學習中的有效性。透過對沙烏地阿拉伯三所公立大學的386名醫學生進行問卷調查,結果顯示大多數參與者每週或每天使用ChatGPT,主要在個人電腦上。參與者對其在個性化學習、語言技能和互動測驗的支持評分均較高,且在互動測驗和教育持續性方面,性別差異顯著。總體而言,儘管面臨挑戰,ChatGPT在醫學教育中展現出作為有價值工具的潛力。 相關文章 PubMed DOI

這項研究探討了ChatGPT在提升沙烏地阿拉伯醫學生批判性思維的效果,共有392名來自三所公立大學的學生參加線上調查。結果顯示,根據性別、年齡和學術背景,對ChatGPT的看法存在顯著差異。大多數參與者(92.6%)認為整合ChatGPT會正面影響他們的批判性思維技能,並強烈認同其提升能力。研究建議將ChatGPT納入醫學教育,但也強調需解決潛在挑戰,確保應用的包容性。 相關文章 PubMed DOI

服務的定義已從2000年前的製造業轉變為以客戶為中心,這一變化受到服務業增長的驅動。數位轉型對服務公司變得至關重要,尤其在第四次工業革命和COVID-19影響下。本研究分析了2000至2022年間的3,029項國際專利,並透過主題建模識別出客戶服務的10個關鍵主題。結果顯示,以使用者為中心的網路服務設計是主要趨勢,而雲端運算在近五年顯著增長,成為2023年客戶服務數位轉型的關鍵技術。 相關文章 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在台灣整形外科考試的表現,分析了過去八年的1,375道題目。結果顯示,ChatGPT-4的正確回答率為59%,明顯優於ChatGPT-3.5的41%。ChatGPT-4通過了五年的考試,而ChatGPT-3.5則未通過任何一年。具體來說,ChatGPT-4在單選題得分66%,多選題43%;而ChatGPT-3.5的單選題和多選題得分分別為48%和23%。研究建議隨著AI模型的進步,應考慮改革考試方式,並利用AI提升考試準備和評估。 相關文章 PubMed DOI