Professional Documents
Culture Documents
EU - (2024.04.17) - v1.1
EU - (2024.04.17) - v1.1
0
ü 유럽연합 AI법 (2024.3.13 가결)
• EU의 AI법은 인공지능에 관한 최초의 법률
• AI 시스템이 안전한지 확인하고 법률과 EU의 기본 권리
및 가치를 존중하는 것을 목표로 하는 규제 프레임워크
INEEJI EMPOWERING EXPERTISE
1
자료참조: European Parliament, https://cms.law/
ü 인공지능이란 ?
• 인공 지능(AI)은 디지털 기술을 사용하여 일반적으로 인간 지능이 필요하다고 생각되는 작업을 수행할
수 있는 시스템을 만드는 것
• AI는 새로운 기술이 아니며, 일부 AI 기술은 수십 년 동안 존재해 왔지만 컴퓨터 성능의 발전, 대량의
데이터 및 새로운 소프트웨어의 가용성으로 인해 짧은 시간 내에 큰 혁신이 이루어졌음
Ø everyday-life applications
automated
virtual assistance medical diagnoses
translations
•가상 지원 •의료 진단
•자동 번역
INEEJI EMPOWERING EXPERTISE
2
자료참조: https://www.consilium.europa.eu
ü 인공지능이란 ?
• 인공 지능(AI)은 디지털 기술을 사용하여 일반적으로 인간 지능이 필요하다고 생각되는 작업을 수행할
수 있는 시스템을 만드는 것
• AI는 새로운 기술이 아니며, 일부 AI 기술은 수십 년 동안 존재해 왔지만 컴퓨터 성능의 발전, 대량의
데이터 및 새로운 소프트웨어의 가용성으로 인해 짧은 시간 내에 큰 혁신이 이루어졌음
Ø AI는,
(1) 혁신적이고 효율적이며 지속 가능하고 경쟁력 있는 경제에
기여하고,
(2) 동시에 시민을 위한 안전, 교육 및 의료를 개선할 수 있으며,
INEEJI EMPOWERING EXPERTISE
Ø EU는,
(1) AI 기술 개발을 지원하는 동시에 잠재적인 위험을 인식하고,
(2) 기술에 대한 윤리적이고 인간 중심적인 접근 방식을 장려
3
자료참조: https://www.consilium.europa.eu
ü The EU's AI act 지향점
• EU는 인공지능에 관한 법률 제정을 시도한 세계 최초의 입법자
• 이러한 종류의 최초의 입법 제안으로서, 이는 GDPR(일반 데이터 보호 규정)이 데이터 프라이버시에
대해 했던 것처럼 다른 관할권의 AI 규제에 대한 글로벌 표준을 설정하여 세계 무대에서 기술 규제에
대한 유럽의 접근 방식을 촉진
* GDPR (General Data Protection Regulation) ETHICAL
(윤리적)
INEEJI EMPOWERING EXPERTISE
TRUSTWORTH SAFE
(신뢰할 수 있는) (안전한)
지속적인 적응과
복잡성
예측 불가능성
불투명성
(특정 AI 시스템이 어떻게 작동하는지 이해하는 인간 정신의 제한된 능력)
INEEJI EMPOWERING EXPERTISE
5
자료참조: https://www.consilium.europa.eu
ü The higher the risk, the stricter the rules (위험이 높을수록 규칙은 더욱 엄격해짐)
• AI의 특정 사용과 관련된 위험을 다루고 이를 4가지 위험 수준으로 분류
비디오 게임, 스팸 필터
챗봇
INEEJI EMPOWERING EXPERTISE
소셜 채점, 얼굴 인식
6
자료참조: https://www.consilium.europa.eu
ü The higher the risk, the stricter the rules (위험이 높을수록 규칙은 더욱 엄격해짐)
1) 비디오 게임, 스팸 필터
- 위험 수준: 최소
- 위험이 최소화된 솔루션(대다수의 AI 시스템)은 규제되지 않으며 이전과 같이 사용할 수 있음
7
자료참조: https://www.consilium.europa.eu
ü The higher the risk, the stricter the rules (위험이 높을수록 규칙은 더욱 엄격해짐)
2) 챗봇
- 위험 수준: 제한적
- 위험이 제한된 시스템은 허용되지만 특정 투명성 의무를 이행해야 하므로,
사용자는 AI와 상호 작용한다는 사실을 알고 있어야 함
8
자료참조: https://www.consilium.europa.eu
ü The higher the risk, the stricter the rules (위험이 높을수록 규칙은 더욱 엄격해짐)
3) 시험 채점, 채용, 대출 승인, 인사이동 등에 사용
- 위험 수준: 높음
- 고위험 시스템은 EU 시장에 출시되기 전에 엄격한 기준을 충족해야 함
9
자료참조: https://www.consilium.europa.eu
ü The higher the risk, the stricter the rules (위험이 높을수록 규칙은 더욱 엄격해짐)
4) 소셜 채점, 얼굴 인식
- 위험 수준: 허용 불가
- 국민의 안전, 생계, 개인의 권리에 위협이 되는 것으로 간주되는 시스템은 금지
AI법의 목적 AI 혁신을 지원
11
자료참조: https://www.consilium.europa.eu
CHAPTER CHAPTER title Section Article
ü EU 인공지능법 구조 1 GENERAL PROVISIONS 5
5 GENERAL-PURPOSE AI MODELS 3 6
7 GOVERNANCE 2 7
GPAI
High-Risk AI system 8 EU DATABASE FOR HIGH-RISK AI SYSTEMS 1
(General-Purpose AI)
POST-MARKET MONITORING, INFORMATION
9 5 23
SHARING, MARKET SURVEILLANCE
INEEJI EMPOWERING EXPERTISE
13 FINAL PROVISIONS 12
12 ANNEX 13
자료참조: European Parliament, https://cms.law/
ü General Provisions (Chapter 1)
• Definitions 파트에 68개의 용어 정의
Definitions AI literacy
(article 3) (article 4)
13
자료참조: European Parliament, https://cms.law/
ü Prohibited AI Practices (Chapter 2)
1. 테러
2. 인신매매
3. 아동 성 착취 및 아동 포르노
4. 마약 또는 향정신성 물질의 불법 거래
5. 무기, 탄약 또는 폭발물의 불법 밀매
6. 살인, 심각한 신체 상해,
7. 인체 장기 또는 조직의 불법 거래
8. 핵 또는 방사성 물질의 불법 거래
9. 납치, 불법 감금 또는 인질극
10. 국제형사재판소(International Criminal Court) 관할권 내의 범죄
INEEJI EMPOWERING EXPERTISE
3. Obligations of providers and deployers of high-risk AI systems and other parties (section 3)
고위험 AI 시스템의 제공자 및 배포자 및 기타 당사자의 의무 (article 16~27)
INEEJI EMPOWERING EXPERTISE
15
자료참조: European Parliament, https://cms.law/
INEEJI EMPOWERING EXPERTISE
16
자료참조: EPRS_BRI(2021)698792_EN
ü Transparency obligations for providers and deployers of certain ai systems (Chapter 4)
17
자료참조: European Parliament, https://cms.law/
ü General-purpose ai models (Chapter 5)
시스템적 위험이 있는 범용
분류 규칙 범용 AI모델 제공자의 의무
AI 모델 제공업체의 의무
(section1) (section 2)
(section 3)
18
자료참조: European Parliament, https://cms.law/
ü Measures in support of innovation (Chapter 6)
AI 규제 샌드박스 (article57)
AI 규제 샌드박스의 세부 구성 및 기능 (article58)
특정 운영자에 대한 훼손 (article63)
19
자료참조: European Parliament, https://cms.law/
ü Governance (Chapter 7)
연합 차원의 거버넌스 국가 관할 당국
(section1) (section 2)
20
자료참조: European Parliament, https://cms.law/
ü EU Database for high-risk ai systems (Chapter 8)
• 부록 III에 나열된 고위험 AI 시스템에 대한 EU 데이터베이스 (article 71)
2. 중요 인프라
3. 교육 및 직업 훈련
3. Enforcement (section 3)
집행 (article 74~84)
INEEJI EMPOWERING EXPERTISE
4. Remedies (section 4)
구제책 (article 85~87)
5. Supervision, investigation, enforcement and monitoring in respect of providers of general-purpose AI models (section 5)
범용 AI 모델 제공업체에 대한 감독, 조사, 시행 및 모니터링 (article 88~94)
22
자료참조: European Parliament, https://cms.law/
ü Chapter 10~13
행동 강령 및 지침 권한 위임 및 위원회 절차 페널티 최종 규정
(Chapter 10) (Chapter 11) (Chapter 12) (Chapter 13)
23
자료참조: European Parliament, https://cms.law/
1. 연합 조화 법안 목록
4. 제11(1)조에 언급된 기술 문서
5. EU 적합성 선언
6. 내부 통제에 따른 적합성 평가 절차
importer
distributor
INEEJI EMPOWERING EXPERTISE
operator
notifying authority
conformity assessment
notified body
INEEJI EMPOWERING EXPERTISE
CE marking
sandbox plan
• '샌드박스 계획'은 샌드박스 내에서 수행되는 활동에 대한 목표, 조건, 기간, 방법론 및 요구 사
INEEJI EMPOWERING EXPERTISE
AI regulatory sandbox
•'실제 조건에서의 테스트'는 신뢰할 수 있고 강력한 데이터를 수집하고 AI 시스템이 이 규정의 요구 사항을
준수하는지 평가 및 검증하기 위해 실험실 또는 기타 시뮬레이션 환경 외부의 실제 조건에서 의도된 목적을
위해 AI 시스템을 일시적으로 테스트하는 것을 의미하며, AI 시스템을 시장에 출시하거나 다음 의미 내에서
서비스에 투입하는 것으로 간주되지 않습니다. 이 규정은 제57조 또는 제60조에 규정된 모든 조건이 충족되
는 경우에 한한다.
general-purpose AI model
•'범용 AI 모델'은 이러한 AI 모델이 대규모로 자기 감독을 사용하여 대량의 데이터로 훈련되는 경우를 포함하
며, 상당한 일반성을 나타내고 모델이 시장에 출시되는 방식에 관계없이 광범위한 개별 작업을 유능하게 수
행할 수 있고 다양한 다운스트림 시스템 또는 애플리케이션에 통합될 수 있는 AI 모델을 의미합니다. 시장에
출시되기 전에 연구, 개발 또는 프로토타이핑 활동에 사용되는 AI 모델은 제외됩니다.
INEEJI EMPOWERING EXPERTISE
general-purpose AI system
downstream provider
AI supply chains may include upstream, midstream, and downstream products or models
32
자료참조: https://aipolicy.substack.com
ü AI 기술의 공급망
AI Upstream
AI Downstream
AI Midstream
Upstream 공급자 선택
건전한 Downstream 경쟁
최종 사용자 경험
34
자료참조: https://aipolicy.substack.com
ü AI 공급망
• AI 모델은 다른 모델 위에 구축되어 복잡하고 다층적인 공급망을 형성
• 베이스 모델은 일반적으로 공급망(Upstream)의 최상위 à 공급망 후반부(Downstream)에는
다른(Upstream) AI 시스템을 사용하여 구축된 AI 제품 존재
INEEJI EMPOWERING EXPERTISE
AI 공급망 예시
35
자료참조: https://aipolicy.substack.com
ü AI 공급망 관리의 중요성
• 복잡한 공급망은 경제의 기본 구조 à AI 공급망도 복잡성에 대한 관리 필요
36
자료참조: https://aipolicy.substack.com
ü AI 공급망과 제조 공급망은 속성과 관리 특성에 차이가 있음 à AI 배포의 위험성 증가
• 1. Poor specification (사양이 좋지 않음)
기존 공급망
AI 공급망
INEEJI EMPOWERING EXPERTISE
37
자료참조: https://aipolicy.substack.com
ü AI 공급망과 제조 공급망은 속성과 관리 특성에 차이가 있음 à AI 배포의 위험성 증가
• 2. Non-modularity (비모듈성)
기존 공급망
AI 공급망
INEEJI EMPOWERING EXPERTISE
38
자료참조: https://aipolicy.substack.com
ü AI 공급망과 제조 공급망은 속성과 관리 특성에 차이가 있음 à AI 배포의 위험성 증가
• 3. Hidden data interactions (숨겨진 데이터 상호 작용)
기존 공급망
AI 공급망
• 문제는 각 데이터가 그 자체로 "좋다"는 것만이 아니며, 추가로 활용하는 다른 데이터와 잘 작동해야만 함
• 여러 데이터 세트가 결합되면 데이터 간의 상호 작용이 더욱 복잡 해짐
• 예를 들어, 두 개의 데이터 세트는 그 자체로는 "양호"하고 "균형"이 있지만 결합하면 오해의 소지가 있을
수 있음
39
자료참조: https://aipolicy.substack.com
데이터 거버넌스란?
• 데이터 거버넌스에는 일반적으로
① 이해할 수 있고
② 정확하고
③ 완전하고
④ 신뢰할 수 있고
⑤ 안전하고
⑥ 검색 가능한
INEEJI EMPOWERING EXPERTISE
• 비용 절감
• 위험 관리 및 최적화를 통해 회사의 지속적인 존재를
보장하는 데 도움
데이터 거버넌스 수준
41
자료참조: https://bi-survey.com/data-governance#def
ü BIA(Business Impact Analysis)
• 사고 또는 긴급 상황으로 인해 중요한 비즈니스 운영이 중단될 때 발생할 수 있는 잠재적 영향을
확인하고 평가하는 체계적인 프로세스
• 예시)
- 규제 기관의 페널티에 따른 사업의 잠정/영구 중단, 벌금
- 소비자에 피해에 대한 보상/배상 금액
ü RA(Risk Assessment)
• 비즈니스에 영향을 줄 수 있는 위험 요소 평가
INEEJI EMPOWERING EXPERTISE
• 예시)
- Upstream 데이터에 식별 되지 않은 민감/개인 정보 포함
- 알고리듬의 정확도(or 충분한 이해 부족)으로 인한 오작동