原始文章

人工智慧(AI)發展迅速,尤其是大型語言模型的應用。雖然AI能提升工作效率,但也帶來工人面臨的風險,特別是在工業機器人和算法管理普及的情況下。為了應對這些挑戰,政府和企業提出了設計和使用可信賴、具倫理的AI的指導方針。職業安全與健康專業人士需專注於管理這些潛在風險,並提出五項風險管理策略,以確保工作場所的AI技術能最大化好處,並減少對工人的傷害。 PubMed DOI


站上相關主題文章列表

AI寫作工具如ChatGPT因能像人類寫作般受歡迎。優點在於加速創新與多元觀點,但對研究誠信與人類研究者角色有爭議。科學界需討論AI對研究的影響,出版商制定AI指南,或擴及實驗設計與同行評審。科學家應積極參與討論,思考AI技術帶來的潛在後果。 PubMed DOI

大型語言模型的快速普及引起了對先進人工智慧的興奮和擔憂。許多人正在尋求人工智慧安全方案,主要公司和政府正在投資研究。然而,目前的人工智慧安全技術議程可能不足夠,需要採取一種社會技術綜合方法來有效應對先進人工智慧的風險。 PubMed DOI

人工智慧改變科學出版方式,提升效率但也引發道德疑慮。研究者需平衡獲益與獨立思考,避免道德困境如原創性和抄襲問題。在AI時代,人類審稿人扮演關鍵角色,確保真實性。提出指標和激勵措施維持學術平衡。未來科學出版需人工智慧與人類專業知識共生,建立道德高效環境。 PubMed DOI

這篇文章討論了大型語言模型(LLMs)和人工智慧(AI)在科學寫作中的整合,特別是在醫學文獻的運用。強調了使用LLMs整合資訊和全球知識傳播的好處和挑戰,也提到了潛在問題,如意外抄襲、錯誤資訊、偏見和過度依賴AI。作者提出了確保完整性和責任的AI原則,建議在手稿中報告AI參與的指引,並介紹了一個用於指定AI協助程度的分類系統。強調透明度、作者資格和AI使用中的道德考量,並討論了訪問公平性、AI生成內容中的偏見、作者身份動態和責任問題等議題。建議促進AI開發人員、研究人員和編輯之間的合作,並倡導負責任地使用AI於學術寫作。同時建議定期評估AI對醫學手稿質量和偏見的影響,以確保科學文獻的完整性在AI發展中得以維持。 PubMed DOI

人工智慧(AI)進步快速,對毒理學影響深遠。機器學習處理各種毒理學數據,有助預測風險。神經網絡和自然語言處理等AI方法成功預測毒性。挑戰在於模型解釋性和數據偏見,需合作開發可信賴的AI系統。這將改變毒理學證據收集方式,提升人類和環境安全。 PubMed DOI

人工智慧(AI)正在快速改變生物醫學研究,加速解決問題並分析龐大數據。AI在藥物設計、毒理學和材料辨識上的應用,有潛力改革科學研究的設計、數據分析和溝通方式。像ChatGPT和Perplexity這樣的大型語言模型改變了科學家之間的互動和溝通方式。雖然AI帶來好處,但也有風險,例如保密性不足和潛在偏見。本評論討論了AI對生物醫學研究現況和未來影響,並強調了需要考慮的利弊。 PubMed DOI

人工智慧和大型語言模型正在改變工作和健康管理方式。重要的是要處理與人工智慧對職業健康影響相關的道德考量。利害關係人和醫生應該適應職業醫學實踐與不斷演變的道德標準。檢視ICOH道德守則可以幫助確保在醫療保健中負責任地使用人工智慧,並在自動化過程中保護工人的福祉。 PubMed DOI

這項研究探討人工智慧(AI)在醫療領域的風險,並提出政策建議以減輕這些風險,同時發揮AI的優勢。AI若正確使用,能對醫療產生重大影響,但其快速普及也帶來倫理、法律及社會問題。研究指出,數據偏見可能導致護理不平等,且AI的可解釋性和問責性問題可能影響病人安全。報告建議提高醫療人員的AI素養、加強隱私保護,並將倫理原則融入AI設計,以確保負責任且公平地使用AI,提升醫療品質。 PubMed DOI

這篇文章探討了大型語言模型在職業醫學中的潛在優勢與挑戰。這些模型能協助醫療決策、病人篩檢、文件撰寫及醫護人員訓練,可能帶來成本降低和效率提升,還能減少人為錯誤。不過,它們也有準確性不足和提供錯誤建議的風險。此外,倫理問題和缺乏監管也增加了挑戰。文章建議,儘管未來有望改善,仍需進一步研究這些模型在職業醫學中的應用。 PubMed DOI

人工智慧(AI)在自然語言處理的發展,特別是ChatGPT,已經改變了許多領域,包括知識評估。這種生成式AI能提升寫作效率,但也引發對資訊準確性和倫理的擔憂。在教育和科學寫作中,建立明確的使用指導方針至關重要。此外,AI對人際互動和睡眠的影響也需關注。為了有效整合AI,必須透過持續研究和公共討論來平衡其優缺點。 PubMed DOI