LLM 相關三個月內文章 / 第 126 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究比較了三個人工智慧平台的診斷準確性,包括ChatGPT 4.0、Google Bard和WebMD的症狀檢查工具,與耳科醫生的診斷進行對比。研究結果顯示,這些AI平台的診斷準確率偏低,ChatGPT 4.0為22.45%,Google Bard為12.24%,WebMD僅5.10%。Fleiss' kappa值顯示AI與醫生的診斷協議不佳,強調了AI在醫療領域的局限性,並指出人類專業知識在臨床診斷中的重要性。 相關文章 PubMed DOI

這項研究調查了患者使用OpenAI的ChatGPT作為線上健康資訊的情況。結果顯示,21.5%的受訪者使用ChatGPT來獲取健康資訊,使用者多為年輕人,且擁有高級學位的比例較低。他們常用此工具來判斷是否需要看醫生或尋找替代療法。大多數人認為ChatGPT的實用性與其他健康資訊來源相當,甚至更高。雖然使用者對資訊的準確性有疑慮,但仍有不少人表示根據這些資訊改變了健康行為。這顯示AI生成的健康資訊對患者行為的影響日益增強,醫生可藉此引導患者更有效地使用這類技術。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4對前列腺癌常見問題的回答質量。研究人員制定了八個問題,並由四位評審使用多種工具評估AI的回答。結果顯示,ChatGPT-4的可理解性得分很高,但可讀性卻顯示「難以閱讀」,平均達到11年級的水平。雖然大部分參考文獻都來自可信來源,但仍有兩個例子被識別為參考幻覺。總體來看,ChatGPT-4在患者教育中提供了一般可靠的回答,但在可讀性和準確性上仍需改進。 相關文章 PubMed DOI

這項研究評估了一個生成式人工智慧平台,旨在自動化根據泌尿科期刊文章創建社交媒體貼文。研究期間收集了100篇貼文,並開發了一個免費的GPT工具來生成包含標題摘要、關鍵發現等內容的貼文。三位醫師評估了生成貼文的準確性和適當性。結果顯示,76.6%的貼文符合準確性標準,且學術醫師和一般公眾均偏好GPT生成的貼文。研究結論認為,生成式人工智慧能有效自動化創建準確且受歡迎的社交媒體貼文,適用於學術界和大眾。 相關文章 PubMed DOI

這項初步研究探討個體在閱讀時如何處理語意,透過分析眼動和腦電圖(EEG)數據,並結合大型語言模型(LLMs)。研究聚焦於閱讀理解任務,參與者閱讀不同關鍵字相關性的單詞。研究結果顯示,與關鍵字相關的單詞獲得的眼動注視次數顯著高於低相關性單詞,達到60%以上的驗證準確率。這項研究對於理解人類認知及發展閱讀輔助技術具有重要意義。 相關文章 PubMed DOI

這項研究探討自訂生成預訓練變壓器(cGPTs)在眼科的應用,分析了22個相關模型。發現55%為一般用途,青光眼是最常見的子專科。超過一半的cGPTs擁有超出標準GPT-4的知識。指令的相容性評估中位數為3.5,顯示出中等到強烈的代表性,且指令字數與評分有顯著相關性。研究指出cGPTs在對話調整和信息檢索上有潛力,但也需注意可能的安全風險。總體來看,cGPTs在醫療上可能提供更專業的解決方案,但仍需進一步研究。 相關文章 PubMed DOI

對於ChatGPT在腹股溝疝氣修補手術的建議評估,專家與非專家的回應質量差異明顯。專家的評分較低(中位數2),而非專家的評分較高(中位數2),且這差異具統計意義(p < 0.001)。此外,聊天機器人提供的參考資料中,有一半是虛假的。儘管如此,受訪者對神經網絡在臨床決策中的潛力持樂觀態度,並普遍反對限制其醫療應用。因此,建議不要將大型語言模型作為臨床決策的主要資訊來源。 相關文章 PubMed DOI

這項研究評估了ChatGPT在中國國家醫學執照考試中的表現,特別是GPT-3.5和GPT-4.0版本。研究發現,GPT-4.0的及格率為72.7%,明顯高於GPT-3.5的54%。此外,GPT-4.0的回答變異性較低,且在15個醫學子專科中有14個超過準確性門檻,顯示其在醫學教育和臨床實踐中的潛在應用價值。總體而言,GPT-4.0在準確性和一致性上表現更佳,值得進一步探索。 相關文章 PubMed DOI

這篇評論探討了在醫療領域使用像 ChatGPT 這類 AI 模型進行寫作輔助所面臨的倫理問題。儘管技術先進,但仍有不準確、缺乏上下文理解等問題。此外,隱私、數據安全、透明度、偏見和著作權等議題也令人擔憂。評論強調遵循規範和透明度的重要性,若能妥善管理這些挑戰,AI 模型將能在寫作上提供有價值的支持。 相關文章 PubMed DOI

這項研究評估了ChatGPT-4在回答有關尺側韌帶(UCL)損傷的問題時的有效性,並與Google進行比較。研究發現,ChatGPT-4的學術來源比例高達90%,而Google僅50%。兩者在常見問題上有40%的重疊,但在數字回答中,只有20%的答案完全相同。ChatGPT-4的答案準確性顯著高於Google,顯示其在提供臨床相關資訊方面的潛力。不過,在完全應用於臨床前,仍需進一步驗證。 相關文章 PubMed DOI