您當前的位置:檢測資訊 > 法規標準
嘉峪檢測網 2025-03-12 13:38
EU AI Act制定了在歐洲經濟區內管理人工智能系統開發、部署和使用的全面規則。其核心要求側重于確保人工智能產品的透明度、安全性和道德性,同時應對基本權利面臨的風險。
ISO/IEC 42001 提供了一個結構化的人工智能管理系統框架,支持關鍵領域的合規性,從而補充了這些目標。
|
EU AI Act 歐盟AI法案 |
ISO/IEC 42001 AI管理體系 |
基于風險的分類 |
將人工智能系統分為高風險、有限風險和最低風險類別,并對高風險系統提出更嚴格的要求。 |
提供識別、評估和管理人工智能系統相關風險的方法,確保符合該法案的基于風險的方法。 |
透明度和文件 |
要求提供詳細的技術文檔和日志功能,以實現可追溯性。 |
指導企業創建和控制文檔信息,確保整個人工智能生命周期的透明度和可審計性。 |
道德和以人為本的設計 |
優先考慮人類監督、公平性和避免歧視。 |
包括處理人工智能系統中道德因素、公平性和可信度的控制措施。 |
持續監控和改進 |
要求對已部署的人工智能系統進行持續監控和風險管理。 |
強調持續改進和內部審計,以適應不斷變化的風險和合規需求。 |
來源:MDR小能手