原始文章

人工智慧(AI)發展迅速,尤其是大型語言模型的應用。雖然AI能提升工作效率,但也帶來工人面臨的風險,特別是在工業機器人和算法管理普及的情況下。為了應對這些挑戰,政府和企業提出了設計和使用可信賴、具倫理的AI的指導方針。職業安全與健康專業人士需專注於管理這些潛在風險,並提出五項風險管理策略,以確保工作場所的AI技術能最大化好處,並減少對工人的傷害。 PubMed DOI


站上相關主題文章列表

將大型語言模型(LLMs)整合進電子健康紀錄(EHRs)中,雖然能提升數據分析和病患照護,但也帶來隱私、法律及操作上的挑戰。主要問題包括病患未經同意的數據使用、缺乏監管、AI醫療失誤責任不明、數據偏見及重用風險。為了保護病患,特別是脆弱族群,臨床醫師應推動病患教育、倫理實踐及健全監督,確保LLMs的使用既安全又有效。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,特別是大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能被用來製造假新聞或操控輿論;模型中的偏見可能導致不公平對待某些群體;隱私問題則涉及敏感資訊的洩露;過度依賴LLMs可能使使用者做出不良決策。 為了應對這些挑戰,需實施強有力的安全措施,並促進開發者、政策制定者和倫理學家的合作,以確保LLMs能以有益和倫理的方式服務人類。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

人工智慧(AI)正在改變醫療保健,但也帶來了倫理和法規挑戰。本研究旨在建立一個可信賴的AI框架,強調透明度和公平性,並提供可行策略以在臨床中實施。透過文獻回顧,發現目前AI治理存在缺口,提出了適應性監管框架和可量化的可信度指標。研究強調多方參與和全球合作的重要性,以確保AI創新能解決醫療需求。實現可信賴的AI需要技術進步、倫理保障和持續合作,促進負責任的創新並提升病人結果。 PubMed DOI

將大型語言模型和生成式人工智慧應用於醫療領域,帶來新的法律風險,主要包括算法偏見和數據安全問題,可能侵犯個人權益。此外,醫療數據的管理和商業化也引發所有權爭議。隨著人工智慧的深入應用,醫療傷害的責任判定變得更複雜。為應對這些挑戰,需實施算法審查、加強數據管理、明確數據所有權及建立授權協議,並根據具體過失公平分配責任。 PubMed DOI

人工智慧(AI)將對許多工作產生重大影響,特別是在醫療保健領域,尤其是癌症治療。雖然AI在診斷和放射腫瘤學中展現潛力,但仍需證據證明其臨床有效性。支持者強調人類監督的重要性,然而過度依賴AI可能導致技能退化。生成式AI的進展擴大了應用範圍,但需進行獨立研究以驗證效果。算法醫學應像新藥一樣受到重視,並需確保數據集的多樣性。此外,教育計畫和倫理考量也必須跟上,以確保病人護理的質量。 PubMed DOI

雖然 ChatGPT 這類 AI 很厲害,但我們對它們可能帶來的「存在性風險」還不太清楚。這些風險可能從公平性、問責性等議題慢慢演變而來。論文討論了 AI 可能造成的傷害,以及像 AI 對齊、過度信任、安全、開源、醫療和社會影響等減緩風險的方法。 PubMed DOI

美國現行法律無法有效處理生成式AI帶來的隱私、公平和福祉等風險,對AI公司責任的規範也不夠明確。作者建議建立新的「負責任AI法律框架」,納入基本價值觀、訂定安全標準,並針對AI特性設計專屬責任規則,以更主動地保障民眾權益。 PubMed DOI

這項研究用機器學習分析職場問卷,提出新特徵選擇法,找出39個關鍵壓力指標,並結合多種模型,準確率超過九成,優於過去研究。方法經多重驗證,對新資料也有效。研究還用1D-CNN和創新資料轉換,讓語言模型能處理問卷資料。結果顯示,壓力和生物醫學因素關聯高,主要壓力來自工作量、溝通和環境。只需問卷即可即時監測職場壓力,實用性高。 PubMed DOI

AI,尤其是大型語言模型,正大幅改變醫療研究,但也帶來作者歸屬、透明度和濫用等倫理問題。各大組織強調AI應負責任且透明使用,並不承認聊天機器人為共同作者。未來AI應用需持續遵守倫理規範,審慎推動。 PubMed DOI