LLM 相關三個月內文章 / 第 22 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究探討了使用ChatGPT為照顧者、青少年和兒童製作腎臟移植的教育手冊。研究者透過25個主題的標準化提示來確保內容一致性,並由專家小組評估手冊的準確性和可理解性。結果顯示,照顧者的可理解性得分為69%,青少年66%,兒童73%,且90.7%的手冊符合可行性標準。雖然手冊格式良好,但內容深度不足。總體而言,研究認為ChatGPT在生成病人教育材料上有潛力,但仍需改善內容的具體性和深度。 相關文章 PubMed DOI

這項研究探討學術外科中的性別偏見,分析AI平台ChatGPT生成的推薦信,對比男性與女性申請升遷為副教授的候選人。研究人員創作了六封推薦信,結果顯示針對女性的信件平均較短(298字),而男性的則較長(314字)。此外,女性的推薦信強調「同情心」等特質,男性則強調「尊重」和「技能」。這些結果顯示升遷過程中的性別偏見,建議在使用AI撰寫推薦信時需謹慎。 相關文章 PubMed DOI

使用像ChatGPT的人工智慧生成書面內容,讓我們對寫作中的「人聲」真實性和獨創性產生了重要疑問。測試顯示,ChatGPT能從多種輸入中創造出連貫且吸引人的文章,甚至能進行跨語言翻譯。雖然結果令人鼓舞,但也讓我們重新思考著作權及人工智慧在創意表達中的角色。這可能需要監管措施,以確保人類作家的獨特觀點和情感深度不被忽視。關於人工智慧在寫作中的角色討論才剛開始,考慮其對作家和讀者的影響非常重要。 相關文章 PubMed DOI

這項研究強調高品質神經心理學教育的重要性,並指出專業認證的障礙,如時間限制和專業知識不足。研究評估了兩個人工智慧語言模型,GPT-3.5和GPT-4.0,針對美國專業心理學委員會的臨床神經心理學問題。結果顯示,GPT-4.0的準確率達80.0%,明顯優於GPT-3.5的65.7%。在「評估」類別中,GPT-4.0得分73.4%,也高於GPT-3.5的58.6%。分析錯誤問題揭示了知識缺口,特別是在「神經退行性疾病」和「神經心理測試與解釋」方面。 相關文章 PubMed DOI

乳腺癌仍是全球健康的重要議題,亟需改善預測和管理復發的方法。本研究介紹了一個基於人工智慧的臨床決策支持系統(AI-CDSS),利用ChatGPT提升預測準確性。研究開發了一個機器學習模型,使用三軍總醫院2004至2016年的乳腺癌患者數據進行訓練和驗證。模型表現良好,曲線下面積(AUC)達0.80。AI-CDSS在臨床應用中顯示出個性化治療和增強患者參與的潛力,但仍需在不同臨床環境中進一步驗證其有效性。 相關文章 PubMed DOI

小分子的設計對於藥物發現和能源儲存等技術應用非常重要。隨著合成化學的發展,科學界開始利用數據驅動和機器學習方法來探索設計空間。雖然生成式機器學習在分子設計上有潛力,但訓練過程複雜,且生成有效分子不易。研究顯示,預訓練的大型語言模型(LLMs)如Claude 3 Opus能根據自然語言指示創建和修改分子,達到97%的有效生成率。這些發現顯示LLMs在分子設計上具備強大潛力。 相關文章 PubMed DOI

這項研究探討大型語言模型(LLMs)在理解醫學研究論文的能力,特別是使用STROBE檢查表進行評估。研究比較了六個LLMs的表現,包括GPT-3.5-Turbo和GPT-4系列,與專業醫學教授的評估。分析了50篇來自PubMed的論文,結果顯示GPT-3.5-Turbo的準確率最高(66.9%),而Gemini Pro和GPT-4-0613的得分最低。研究強調LLMs在醫學文獻理解上的潛力,但也指出需進一步研究以克服現有限制。 相關文章 PubMed DOI

這項研究比較了ChatGPT大型語言模型(LLMs)與不同經驗的人類讀者在肺癌分期的表現。研究納入700名非小細胞肺癌患者,使用胸部CT和FDG PET/CT報告進行分析。結果顯示,GPT-4o的準確率為74.1%,優於其他模型和一位住院醫師,但仍低於專科訓練的放射科醫生。這表明,雖然LLMs在某些方面表現不錯,但在癌症分期等複雜任務中,專業醫療人員的角色仍然不可或缺。 相關文章 PubMed DOI

噬菌體(phages)是微生物社群中重要但尚未完全了解的成分,因為它們需要細菌宿主來繁殖,能反映生態系統特徵和環境壓力。高通量測序技術已揭示噬菌體族群的多樣性,但病毒基因組的多樣性使得許多基因缺乏適當註解,限制了我們的理解。為了有效應用噬菌體於人類和環境健康,需發展新方法來組織和註解病毒序列。最近在自我監督學習方面的進展顯示出增強病毒蛋白同源性檢測的潛力,特別是在海洋病毒組的研究中。這篇綜述探討了大型語言模型在病毒註解中的潛力與挑戰,強調創新方法的重要性。 相關文章 PubMed DOI

這項研究探討了2023年3月版本的ChatGPT如何回應情感故事,並與人類的情感反應進行比較。三十四位參與者閱讀情感豐富的短篇故事並評估自己的情感反應,而ChatGPT則在十次會議中生成對同樣故事的回應。結果顯示,ChatGPT能識別和分類故事的情感內容,但預測人類情感反應的準確性不高,顯示出AI與人類在情感表達上的差異。了解這些差異對增進與AI的情感互動非常重要。 相關文章 PubMed DOI