原始文章

這項研究強調中東和北非地區心理健康問題的上升,並促進相關研究的增加。研究人員利用ChatGPT-4開發AI模型,根據紐卡索-渥太華量表和賈達量表等標準進行評估。結果顯示,AI評估與人類評審者之間有中等到良好的一致性,且AI大幅縮短評估時間,每篇文章僅需1.4分鐘,而人類則需19.6分鐘。雖然AI在某些情況下會出現不準確的結果,但在專業知識輔助下,其效果會更佳。 PubMed DOI


站上相關主題文章列表

心理疾病是全球健康的重要議題,生成式人工智慧(GAI)在提升心理健康護理上展現潛力,但相關研究仍有限。本次綜述回顧了2013至2023年的文獻,分析了144篇文章,找出六個GAI的主要應用,包括心理疾病檢測、諮詢支持等。大多數研究集中在治療和諮詢上,特定心理健康狀況的關注較少。雖然像ChatGPT的工具被廣泛使用,但其在心理疾病檢測的有效性仍需進一步研究。GAI應輔助專業人員,而非取代,並需重視倫理問題以解決心理健康護理的挑戰。 PubMed DOI

這項研究評估了基於人工智慧的聊天機器人ChatPDF在生成學術精神醫學文章摘要的效果。研究人員提供了30篇論文,要求聊天機器人創建摘要,並將其與《精神醫學研究》的10篇摘要進行比較。結果顯示,AI生成的摘要在相似性和抄襲率上都很低,但結構化摘要的準確率僅有40%,非結構化摘要則為73%。專家指出,約30%的AI生成結論是錯誤的。總體來看,雖然ChatPDF能有效組織資訊,但對生成摘要的準確性仍需謹慎評估。 PubMed DOI

這項研究探討了ChatGPT在科學文章審查中的有效性,並與傳統人類研究者的結果進行比較。研究人員對17篇有關醫療專業人員使用數位工具的文章進行系統性回顧,並透過特定提示引導ChatGPT分析。經過四次迭代後,ChatGPT的結果與原始回顧相當,但人類作者提供了更深入的分析和詮釋。雖然兩者在宏觀主題上相似,但人類驗證仍然重要,以確保研究的徹底性和深度。總體而言,ChatGPT在增強科學文獻產出方面展現潛力,但需依賴人類指導以達最佳效果。 PubMed DOI

這項研究評估了ChatGPT-4o在放射組學質量評分(RQS)方面的有效性,並與人類專家進行比較。研究納入了52篇2023至2024年發表的文章,結果顯示ChatGPT-4o和專家的中位RQS均為14.5,且無顯著差異。ChatGPT-4o的評分可靠性高,內部信度為0.905,且評估速度遠快於專家(每篇2.9-3.5分鐘對比13.9分鐘)。總結來說,ChatGPT-4o在放射組學研究質量評估上是有效且可靠的,未來可望成為快速自動化的評估工具。 PubMed DOI

這項研究系統性回顧了生成式人工智慧在精神科和心理健康領域的應用,強調語言在診斷和治療中的重要性,並指出其潛力改變這個領域。研究人員從三個資料庫篩選出40篇主要在2023年發表的文章。結果顯示,雖然生成式人工智慧如ChatGPT在提升心理健康方面有潛力,但大多數研究集中於一般應用,特定心理疾病的探討較少,物質使用障礙是最常見的主題。儘管表現良好,仍需注意安全和倫理問題,未來研究應改善方法論透明度,並納入使用者意見。 PubMed DOI

這項研究評估生成式人工智慧(GAI)工具在健康政策識別與解釋的有效性,並與人類專家比較。研究使用了針對緊急和兒童疫苗接種政策的數據集,結果顯示GAI工具與專家的回應一致率為67.01%,而專家的則為78.09%。雖然GAI加快了數據收集,但在非洲、東南亞和東地中海地區出現超過50%的錯誤表述,特別是在疫苗接種政策上。GAI在政策解釋方面效果較差,顯示需進一步開發以提升準確性。儘管如此,GAI在健康政策識別的質量保證上仍具價值。 PubMed DOI

這項研究評估了生成式人工智慧(如ChatGPT-4o)在全球健康領域的資訊素養,與研究生的論文進行比較。54名學生中有28人參加,結果顯示他們普遍認為AI生成的論文不如自己的作品,平均滿意度僅2.39(滿分5分)。雖然AI生成的729個參考文獻中54%是真實的,但46%是虛構的,且只有26.5%與論文內容相關。學生指出AI的速度和創新主題能力,但也強調其準確性和可靠性不足,特別是在公共健康資訊上,這引發了對於誤導可信來源的擔憂。 PubMed DOI

隨機對照試驗(RCTs)對循證醫學非常重要,但有些試驗使用虛構數據,影響研究的完整性。本研究探討利用GPT-4驅動的ChatGPT來簡化RCT評估過程。透過TRACT檢查表,ChatGPT能有效處理RCT論文的PDF,並準確回答檢查項目,與人類評估者的一致性達84%。此外,ChatGPT在數據提取方面也表現出色,對三個表格達到100%準確率。未來將致力於提升ChatGPT在多個RCT中的應用,實現更高的數據捕捉準確性及自動化處理。 PubMed DOI

這項研究評估了大型語言模型ChatGPT在系統性回顧和統合分析中的表現,特別是在脊髓刺激後情緒功能的數據上。結果顯示,ChatGPT在標題和摘要篩選的準確率為70.4%,而全文篩選的準確率為68.4%。在數據整合方面,ChatGPT的準確率達到100%。雖然在篩選任務中表現中等,但在數據整合上表現優異。研究指出,人工智慧能提升系統性回顧的效率,但仍需人類監督以確保研究質量。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是GPT-4o,在公共衛生文件分析中的應用,像是社區健康改善計畫。研究比較了GPT-4o的半自動化輸出與人類分析師的表現。 主要發現包括: 1. **準確性**:GPT-4o的抽象準確率為79%,錯誤17次;人類分析師則為94%,錯誤8次。數據綜合方面,GPT-4o準確率僅50%,錯誤9次。 2. **時間效率**:GPT-4o在數據抽象上耗時較少,但考慮到提示工程和修正錯誤,實際節省不明顯。 3. **謹慎態度**:建議公共衛生專業人員謹慎使用生成式AI,權衡資源節省與準確性問題。 總之,GPT-4o在公共衛生內容分析上有潛力,但需注意其限制。 PubMed DOI