EU AI Act 타임라인 한 장 요약: 2025~2027 무엇이 언제 적용되나

EU AI Act(유럽연합 인공지능법)는 “AI를 위험도에 따라 나누고, 역할(제공자/사용자)에 따라 책임을 부여하는” 구조로 설계된 규제입니다. 국내 기업이라도 EU 시장에 제품·서비스를 제공하거나, EU 고객/파트너와 거래하거나, EU 규정을 따르는 기업과 공급망으로 연결되어 있다면 간접적으로 영향을 받을 수 있습니다.

이 글은 2025~2027년 구간에서 실무자가 가장 많이 묻는 질문인 “언제 무엇을 준비해야 하는가”를 한 장짜리 흐름으로 정리합니다. 단, 적용 범위는 AI의 종류(금지/투명성/고위험/GPAI)와 운영 역할(제공자 vs 사용자)에 따라 달라질 수 있으므로, 날짜만 외우기보다 내 서비스가 어디에 걸리는지 먼저 분류하는 방식이 효율적입니다.

먼저 결론: 2025~2027 핵심 날짜 4개


한 장 요약이 필요하다면, 아래 4개 날짜를 “기점”으로 잡고 체크리스트를 돌리는 게 가장 빠릅니다.

- 2025년 2월 2일: 금지(불허) AI 관행 + AI 리터러시(교육/역량) 관련 의무가 우선 적용되는 구간
- 2025년 8월 2일: GPAI(범용 AI) 관련 거버넌스/의무가 적용되는 구간(모델 제공자 중심, 일부는 사용자도 영향)
- 2026년 8월 2일: EU AI Act가 전반적으로 본격 적용되는 큰 마일스톤(다수 의무가 “운영 체계” 형태로 요구될 가능성이 큼)
- 2027년 8월 2일: 규제 제품(안전 규제 대상 제품) 내장형 고위험 AI 등 일부 항목의 전환 기간 종료 시점

큰 일정(연도별): 2025~2027 로드맵


여기서는 ‘정교한 조문 번호’보다, 실무에서 바로 움직이게 하는 “연도별 해야 할 일” 중심으로 정리합니다. 아래를 보고 우리 조직의 업무 캘린더에 그대로 옮겨 적는 것을 권합니다.

- 2025년(상반기): “하지 말아야 할 것”이 먼저 온다
이 시기의 포인트는 금지 AI 관행과 같은 ‘레드라인’을 조직 내부에서 명확히 정리하는 것입니다. 특히 제품/서비스 기획 단계에서 “이 기능이 사람을 조작하거나, 취약성을 이용하거나, 허용되지 않는 감시/프로파일링으로 보일 소지가 있는지”를 먼저 걸러야 수정 비용이 적습니다. 동시에 AI를 업무에 사용하는 직원들이 최소한의 안전 규칙을 알고 있어야 하므로, 교육·가이드 배포 같은 AI 리터러시 체계가 필요해질 수 있습니다.

- 2025년(하반기): GPAI(범용 AI) 의무가 시작되는 구간
범용 AI는 특정 목적에 한정되지 않고 광범위한 용도로 쓰일 수 있어, 모델 제공자(Provider)에게 문서화·투명성·리스크 관리가 요구될 수 있습니다. 다만 국내 기업이 “직접 모델을 학습해 제공”하지 않더라도, 외부 범용 모델을 이용해 서비스를 만드는 경우 공급망(벤더) 요구가 내려올 수 있고, 고객(특히 EU 기업)으로부터 “어떤 모델을 썼는지, 어떤 통제를 했는지”를 요청받을 가능성이 높아집니다.

- 2026년: ‘준수(Compliance)’가 문서가 아니라 운영으로 바뀌는 해
2026년은 AI를 쓰는 방식이 “기술 선택”에서 “운영 체계”로 넘어가는 전환점이 될 수 있습니다. 예를 들어 고지(투명성), 기록(문서화), 검증(테스트), 사고 대응(정정/차단), 내부 통제(권한/승인) 같은 항목이 필요해지고, EU와 거래하는 기업일수록 계약/실사(Due Diligence) 과정에서 이를 요구받을 가능성이 있습니다. 실무자는 이 해를 ‘체크리스트를 실제 운영 프로세스로 굳히는 해’로 잡는 편이 안정적입니다.

- 2027년: 일부 고위험(특히 규제 제품 내장형) 전환 기간이 끝나는 해
특정 제품 규제(의료기기, 기계, 자동차 등)와 결합된 고위험 AI는 적용이 더 늦게 잡히는 경우가 있어, 2027년은 해당 업종에서 중요한 데드라인이 됩니다. 이 분야는 단순히 “AI 기능”이 아니라 제품 안전 체계와 결합되기 때문에, 품질관리·인증·문서가 함께 움직여야 합니다. 해당 업종이 아니라면 2027년은 공급망 요구가 더 강화되는 시점으로 이해해도 충분합니다.

의무(금지·투명성·고위험·GPAI)를 한 번에 정리하는 분류법


EU AI Act는 결국 “네 가지 상자”로 나누면 이해가 쉬워집니다. 우리 서비스가 어떤 상자에 들어가는지에 따라 준비 강도가 달라집니다.

- 1) 금지(불허) 영역: 애초에 출시/사용 자체가 문제될 수 있는 범주
이 영역은 기능의 성능이 좋아도 의미가 없습니다. 기획 단계에서 리스크를 조기에 식별하고, 문서로 “하지 않는다”를 선언해 두는 편이 가장 비용 대비 효과가 큽니다.

- 2) 투명성(고지) 중심 영역: 사용자가 AI를 AI로 인지하도록 하는 의무가 핵심이 되는 범주
예를 들어 챗봇 상담, 자동 요약, 생성형 콘텐츠처럼 사용자가 사람이 만든 것으로 착각할 여지가 있는 기능은 고지가 중요해집니다. 여기서의 핵심은 “표시만 붙이면 끝”이 아니라, 사용자 문의/오해/정정 요청을 처리하는 운영 루프까지 함께 설계하는 것입니다.

- 3) 고위험(High-risk) 영역: 사람의 권리·기회·안전에 중대한 영향을 줄 수 있는 범주
채용, 교육 평가, 금융 접근, 의료 판단 보조, 안전 관련 의사결정 등은 해석상 고위험으로 분류될 소지가 큽니다. 이 경우 요구되는 것은 “정확도”만이 아니라, 리스크 평가, 테스트, 기록, 사람의 개입, 이의제기 처리 같은 관리 체계입니다.

- 4) GPAI(범용 AI) 영역: 여러 서비스의 기반이 되는 모델(또는 그에 준하는 범용 시스템) 중심 의무
GPAI는 제공자 중심 규제처럼 보이지만, 실제 현장에서는 사용 기업도 벤더 관리와 책임 분담을 요구받을 수 있습니다. 특히 “시스템적 리스크가 큰 모델”로 분류될 가능성이 있는 경우, 보안/테스트/사고 대응 협업이 중요해집니다.

기업 역할(제공자 vs 사용자): 우리 회사는 어디에 해당하나


같은 기능이라도 “누가 무엇을 했는지”에 따라 책임이 달라집니다. 실무자는 먼저 우리 조직의 위치를 아래 중 어디에 두어야 하는지 정해야 합니다.

- 제공자(Provider)에 가까운 경우
모델/시스템을 개발하거나, EU 시장에 내놓는 주체라면 제공자 역할에 가깝습니다. 이 경우 문서화(기술 문서, 사용 목적, 제한), 테스트/검증(리스크 기반), 업데이트 관리, 사용자 고지, 사고 대응 체계 같은 “제조사형 책임”을 준비해야 할 가능성이 큽니다.

- 사용자(Deployer/Operator)에 가까운 경우
외부 AI를 가져다 우리 서비스에 붙이거나, 사내 업무에 활용하는 경우가 여기에 가깝습니다. 이때 핵심은 “AI가 우리 업무/고객 경험에서 어떤 결정을 돕는지”를 설명할 수 있는 운영 통제입니다. 예를 들어 입력 데이터 제한, 결과 검증, 고지 문구, 민원/정정 처리, 로그 관리(개인정보 최소화) 같은 항목이 실무 체크포인트가 됩니다.

- 공급망 관점(벤더/파트너 요구)이 현실적으로 가장 빠르게 온다
많은 국내 기업은 규제 당사자라기보다 “EU 고객/파트너가 요구하는 준수 항목”을 먼저 받게 될 가능성이 큽니다. 그래서 법 조문을 전부 외우기보다, 고객이 요구할 수 있는 증빙(정책/검증/고지/사고 대응)을 미리 패키지로 만들어 두는 편이 효율적입니다.

2025~2027 준비 체크리스트: 지금 당장 할 일만 추려서


아래 체크리스트는 “법무팀이 없어도” 시작 가능한 항목 위주입니다. 중요한 순서대로 배열했으니 위에서부터 진행하면 됩니다.

- 1) AI 사용 인벤토리 1장 만들기
어떤 팀이 어떤 모델/툴을 어디에 쓰는지, 입력 데이터는 무엇인지, 결과물이 누구에게 노출되는지(내부/외부)를 한 장 표로 정리합니다. 이 한 장이 있어야 영향도 분류와 일정 대응이 가능합니다.

- 2) 영향도 분류 질문 8개(예/아니오로 답하기)
- 이 AI가 사람의 기회/권리/안전에 영향을 주는 의사결정에 관여하는가
- AI 결과가 사실처럼 보이거나, 사용자가 사람의 답변으로 착각할 수 있는가
- 민감정보(개인정보, 계약, 내부 기밀)가 입력될 가능성이 있는가
- 자동으로 결론이 내려지는가, 아니면 사람이 최종 승인하는가
- 오답이 발생했을 때 고객 피해(금전/법적/안전)가 커질 수 있는가
- EU 고객/사용자가 존재하는가, 또는 EU로 제공되는 서비스인가
- 외부 벤더 모델 업데이트가 잦고, 변경 영향이 큰가
- 결과를 재현/추적할 로그와 기록이 남는가

- 3) 금지 리스크(레드라인) 사전 차단 문장 만들기
정교한 법률 문구가 아니어도 됩니다. 우리 조직에서 “이런 용도는 하지 않는다”는 선언을 만들고, 기획서/요구사항에 포함시키는 방식이 가장 강력합니다.

- 4) 투명성 고지 템플릿 초안 준비
챗봇/요약/추천/생성형 콘텐츠에 붙일 문구를 미리 준비합니다. 핵심은 ① AI 관여 사실, ② 한계(오류 가능), ③ 문의/정정 경로 3요소가 들어가는 것입니다.

- 5) 결과 검증(휴먼 검토) 루틴 정의
고위험 가능성이 있는 영역은 “샘플링 검증”만으로 부족할 수 있습니다. 최소한 어떤 경우에 사람이 반드시 재확인하는지(예: 거절/불이익, 고액, 안전 관련) 기준을 정합니다.

- 6) 벤더 점검 체크(데이터/보안/변경 관리)
외부 모델을 쓴다면, 데이터가 학습에 쓰이는지, 로그 저장 기간, 지역(국외 이전) 이슈, 모델 변경 고지, 장애 시 대응 등을 확인합니다. EU 고객이 있는 경우 이 항목이 계약 이슈로 바로 연결될 수 있습니다.

- 7) 사고 대응 플로우(정정/차단/보고)
오답, 차별적 결과, 권리침해(저작권/초상권), 민감정보 유출 가능성이 발견되면 무엇을 먼저 중지하고, 어디로 보고하며, 사용자에게 어떻게 안내하는지 정합니다. “정정 공지 템플릿”을 만들어 두면 대응 속도가 빨라집니다.

- 8) AI 리터러시(교육) 최소 세트
교육은 거창할 필요가 없습니다. 금지 입력(개인정보/기밀), 프롬프트 주의, 결과 검증, 저작권/초상권 주의, 사고 보고 루트 5가지만 짧게 반복해도 효과가 큽니다. 중요한 건 “기록이 남는 방식”으로 운영하는 것입니다.

실무자가 자주 하는 실수 6가지(타임라인 대응 실패 패턴)


- 실수 1) 날짜만 보고 “우리랑 상관없다”고 결론 내리기
EU에 직접 진출하지 않아도, EU 고객이 있으면 공급망 요구가 먼저 옵니다. 타임라인은 ‘직접 적용’만이 아니라 ‘거래 요구’로도 작동합니다.

- 실수 2) 표시(고지)만 달고 끝내기
표시는 시작입니다. 오답 신고/정정/상담 전환 같은 운영 루프가 없으면 리스크가 쌓입니다.

- 실수 3) AI 도입을 IT 프로젝트로만 보기
고지 문구, 고객 응대, 이의제기, 데이터 관리가 함께 움직여야 합니다. 기획/CS/법무/보안이 빠지면 운영에서 터집니다.

- 실수 4) 고위험 가능성을 과소평가하기
채용/평가/금융/의료처럼 사람에게 불이익이 갈 수 있는 영역은 “보조”라고 말해도 분쟁이 생길 수 있습니다. 최종 책임과 검증 절차를 명확히 두는 편이 안전합니다.

- 실수 5) 벤더 약관을 대충 넘기기
외부 모델은 업데이트가 잦고, 저장/학습 정책이 바뀌기도 합니다. 변경 고지·옵트아웃·로그 정책은 최소한 확인해야 합니다.

- 실수 6) “완벽한 문서”를 만들다 타이밍을 놓치기
실무에서는 완벽한 준수 문서보다, 운영되는 최소 규칙(인벤토리·입력 통제·검증·고지·사고 대응)이 더 중요합니다. 먼저 돌아가게 만들고, 이후 고도화하는 흐름이 비용이 적습니다.

FAQ


Q1. 우리 회사는 EU에 서비스하지 않는데도 EU AI Act를 신경 써야 하나요?
A1. 직접 적용 가능성이 낮더라도, EU 고객/파트너가 있거나 EU 규정을 따르는 기업과 거래한다면 “준수 증빙 요청” 형태로 영향을 받을 수 있습니다. 특히 보안, 데이터 처리, 고지 문구, 검증 체계 같은 항목은 계약/실사 단계에서 요구받기 쉽습니다.

Q2. GPAI 의무는 모델 만드는 회사만 해당 아닌가요?
A2. 의무의 중심은 제공자 쪽에 있을 가능성이 크지만, 사용 기업도 벤더 요구사항을 맞추거나, 고객에게 “우리가 어떤 통제를 했는지” 설명해야 할 수 있습니다. 실무적으로는 ‘벤더 점검’과 ‘운영 통제’가 사용 기업의 핵심 과제가 됩니다.

Q3. 고위험인지 애매하면 어떻게 하죠?
A3. 애매하면 보수적으로 운영 설계를 하는 편이 안전합니다. 특히 불이익 판단(거절/탈락/감점)이나 안전 관련(사고/위험) 의사결정에 관여한다면, 사람의 최종 승인과 검증 기록을 우선 도입하는 것을 권합니다.

Q4. 일정에 맞춰 무엇을 “증빙”으로 남겨두면 좋나요?
A4. 인벤토리(무엇을 어디에 쓰는지), 고지 문구(사용자 안내), 검증 루틴(테스트/샘플링/사람 승인 기준), 벤더 점검(데이터/보안/변경), 사고 대응(정정/차단/보고) 다섯 묶음이 가장 실용적인 증빙 세트가 됩니다.

내부링크로 확장하기 좋은 다음 글 주제


이 글은 “타임라인 요약”이라서, 내부링크로 실무형 글을 붙이면 체류시간과 페이지 깊이가 좋아집니다. 아래 3개를 추천합니다.

- 다음 글 제안 1: 모델/서비스 분류법(금지·투명성·고위험·GPAI를 우리 서비스에 적용하는 방법)
- 다음 글 제안 2: 투명성 고지 문구 템플릿(챗봇/요약/추천/생성형 콘텐츠별 문장 예시)
- 다음 글 제안 3: 리스크 평가 기본(테스트 항목, 오류 대응, 사람 승인 기준, 기록 남기는 방법)

정리: 타임라인을 “캘린더”가 아니라 “준비 순서”로 보자


2025~2027년 EU AI Act 대응은 날짜 자체보다, 우리 AI가 어떤 범주(금지/투명성/고위험/GPAI)에 해당하는지와 우리 역할(제공자/사용자)을 먼저 정하는 것이 핵심입니다. 그 다음 인벤토리와 운영 통제(고지·검증·기록·사고 대응)를 최소 세트로 만들면, EU 직접 적용 여부와 무관하게 공급망 요구에도 흔들리지 않습니다.

원하시면, 귀하의 블로그 콘셉트에 맞춰 “B2B 실무용(체크리스트·증빙 중심)” 또는 “1인 사업자/크리에이터용(투명성·권리침해 예방 중심)”으로 같은 타임라인을 버전 분리해 내부링크 구조까지 묶어드릴 수 있습니다.

이 블로그의 인기 게시물

인공지능의 소프트웨어 엔지니어링 도전 과제

MIT 연구, 치료 상호작용 최적화 프레임워크 개발

테스트 시 학습 방식으로 LLM 성능 향상