LLM 相關三個月內文章 / 第 41 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

最近大型語言模型(LLMs)在自動化健康輔導方面的進展,特別是其零樣本學習能力,提供了重要機會。本研究比較了健康輔導員與RAG啟用的LLaMa-2-7b-chat模型在睡眠問題回答的質量。使用去識別化數據集,100對問答由專家、一般使用者和GPT-4評估,根據準確性、可讀性等五個標準進行評分。結果顯示,LLM的回答在62.25%的評估中被偏好,尤其在有幫助性上更受一般使用者青睞。這顯示LLM在健康輔導中具潛力,建議進一步探索臨床應用。 相關文章 PubMed DOI

將AI技術如ChatGPT應用於醫療領域,特別是在性別肯定乳房切除術(GAM)方面,顯示出改善病人教育的潛力。本研究評估了ChatGPT對GAM常見問題的回答質量與可讀性。結果顯示其可讀性達到大學或研究生水平,且準確性較高。然而,醫生指出回應有時過於一般化,可能包含錯誤資訊,並有病理化性別焦慮的風險。因此,雖然ChatGPT可作為有用資源,但仍需謹慎使用,並建議諮詢醫療專業人員以獲得個性化建議。 相關文章 PubMed DOI

這項研究探討了一種新型數位同儕支持聊天服務對65歲以上老年人減少孤獨感的效果。研究分析了699名參與者的經驗,發現參與聊天後,孤獨感和樂觀情緒在8到9分鐘內顯著改善。小組聊天在19分鐘和21分鐘後的效果更佳。結果顯示,這種基於聊天的同儕支持能有效減少老年人的孤獨感,並提供傳統護理的替代方案。研究也強調了進一步驗證這些發現的必要性。 相關文章 PubMed DOI

這篇論文探討基因數據在疾病診斷與治療中的重要性,特別是癌症研究,並指出將這些數據整合進臨床護理的挑戰,如電子健康紀錄的結構、保險成本及基因結果的可解釋性。研究也提到人工智慧(AI)和大型語言模型(LLMs)在解決這些問題上的潛力。儘管AI在醫學研究中的成功有限,但基於大量數據訓練的LLMs在基因分析上顯示出希望。研究評估了GPT模型在基因表達數據的預測能力,並與傳統機器學習方法進行比較,以探討其在預測癌症亞型的潛力。 相關文章 PubMed DOI

這項研究提出了一種新穎的量子啟發演算法,專注於文件搜尋、檢索和排名,運用量子物理概念,特別是類似貝爾測試的理論。透過超空間類比語言(HAL)框架,利用量子機率理論來定義單詞和文件向量,並考量使用者的偏好。 研究中使用OpenAI的GPT-4生成的合成廣告文本來驗證演算法,發現使用者偏好和查詢單詞順序對結果影響顯著,尤其在小型HAL窗口中。這種方法相較於傳統的餘弦相似度,強調上下文和語義關係,為未來不依賴深度學習的新資訊搜尋引擎開創了可能性。 相關文章 PubMed DOI

深度學習在放射學的應用有助於改善診斷,但臨床接受度仍有挑戰。本研究開發了一個基於Llama 3-8B的語言模型,旨在自動生成MRI和CT報告的結論,以協助放射科醫生並提升效率。使用了15,000份來自克拉約瓦醫藥與藥學大學的報告數據進行訓練,並在NVIDIA RTX 3090 GPU上進行微調。結果顯示,模型在生成結論的準確性上表現良好,並獲得放射科醫生的正面評價。未來需解決數據偏見及臨床整合等問題。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在中文生物醫學命名實體識別(BNER)任務的表現,這領域的研究相對較少。作者評估了多個LLMs,包括ChatGLM2-6B、GLM-130B、GPT-3.5和GPT-4,使用真實的中文電子病歷數據集及公共數據集。結果顯示,雖然LLMs在零樣本和少樣本情境下有潛力,但經過指令微調後表現顯著提升。特別是微調後的ChatGLM2-6B在真實數據集上超越了專門模型,而GPT-3.5在CCKS2017數據集上表現最佳,但仍未超過頂尖專業模型DGAN。這是首個評估LLMs在中文BNER任務的研究,顯示其潛力並為未來應用提供指導。 相關文章 PubMed DOI

這項研究評估了ChatGPT-3.5在回答病理形態學問題的有效性,特別針對國家專業考試(PES)。研究中,ChatGPT-3.5對119道考題的得分僅為45.38%,遠低於及格標準。它在需要理解和批判性思考的問題上表現較佳,但在記憶性問題上則較弱。結果顯示,雖然ChatGPT-3.5可作為教育工具,但在病理形態學的準確性上仍無法與人類專家相比,顯示出進一步提升AI模型的必要性。 相關文章 PubMed DOI

AJHP 現在接受手稿後會迅速在線上發布,甚至在最終格式化和作者校對之前。一項研究評估了 ChatGPT 在回應藥物資訊查詢的準確性,並與藥物資訊中心 (DIC) 進行比較。結果顯示,ChatGPT 的整體準確率為 50%,但在清晰度和可讀性上得分較高(67.5% 對 55.0%)。不過,DIC 在引用方面表現更佳。總體來看,雖然 ChatGPT 的回應較清晰,但準確性不足,仍需仔細審查以確保可靠性。 相關文章 PubMed DOI

這項研究探討了生成式人工智慧工具(如ChatGPT和Google BARD)在醫學生撰寫住院醫師申請個人陳述的表現。研究發現,教職員能正確識別88%的真實陳述和90%的BARD生成陳述,但只有44%的ChatGPT陳述被正確辨識。整體準確率為74%。雖然AI能生成有說服力的陳述,但在表現人文和個人化元素上仍有不足。因此,住院醫師選拔委員會應重視這些人性化指標,以提升評估的準確性。 相關文章 PubMed DOI