EU 제조물 책임지침(Product Liability Directive, PLD) 2024/2853 개정과 AI 배상책임지침(AI Liability Directive, AILD) 제안으로 인해 AI 알고리즘 오류로 인한 배상 소송이 급증하고 있으며, 증거 공개 의무 불이행 시 제조업체가 결함을 입증하지 못한 것으로 자동 추정되는 입증책임 전환 메커니즘이 도입되고 있다. 한국도 2026년 1월 22일 발효될 AI 기본법과 기존 제조물책임법의 개정 압력에 직면하고 있으며, 글로벌 시장 진출 기업들은 EU 규제 적용 범위의 확대로 인해 미준수 시 전 세계 매출액의 최대 7%에 달하는 제재와 함께 배상 소송 폭주로 인한 과도한 법적 비용 부담에 직면하게 될 것으로 예측된다. 본 연구는 선임 법률 전략가 및 미래 위험 관리 전문가의 관점에서 EU 제조물 책임지침의 입증책임 전환이 AI 기업들에게 미치는 정량적 영향을 분석하고, 국내 법제 개정의 필요성과 기업의 대응 전략을 체계적으로 제시한다.
1단계: EU 제조물 책임지침 2024/2853 개정의 핵심 메커니즘
1.1 입증책임 전환의 법리적 구조
EU 제조물 책임지침 2024/2853은 2024년 12월 8일 발효되었으며 2026년 12월 9일부터 완전 적용되며, AI와 디지털 서비스를 포함한 현대 기술을 규제하기 위해 제조물 책임 법정책을 업데이트한다. 지침은 AI 기반 제품의 복잡성을 명시적으로 인정하고 있으며, 제조업체가 내부 작동 방식에 대해 더 많은 지식을 보유하고 있는 정보 비대칭 현상을 해결하기 위해 증거 공개 및 추정 메커니즘을 도입한다.
지침의 핵심은 **결함 추정(Defectiveness Presumption)**에 있다. 다음의 경우 제조물은 결함이 있는 것으로 추정된다: 첫째, 피고인이 관련 증거 공개 의무를 이행하지 못한 경우; 둘째, 청구인이 제품이 EU 또는 국내법에서 정한 필수 안전 요구사항을 준수하지 않음을 입증한 경우; 셋째, 청구인이 합리적으로 예측 가능한 사용 또는 일반적인 상황에서 제품의 명백한 오작동으로 인한 손해가 발생했음을 입증한 경우. 또한 피고인이 명시된 정보 공개 의무를 이행하지 못한 경우, 제조물은 결함이 있는 것으로 추정되며, 피고인이 이 추정에 반박할 기회가 있다.
**인과관계 추정(Causation Presumption)**도 중요한 메커니즘이다. 제품이 결함이 있음이 확립되고 발생한 손해가 그 결함과 전형적으로 일치하는 종류인 경우, 결함과 손해 사이의 인과관계는 추정된다. 이는 청구인이 복잡한 기술 시스템에서의 인과관계를 증명할 필요를 크게 줄인다. 기술적 복잡성이 결함성 또는 인과관계를 증명하기 과도하게 어렵게 하는 경우, 법원은 결함성 또는 인과관계 추정을 고려할 수 있으며, 청구인은 관련 증거에 기초하여 제품이 결함이 있거나 그 결함이 손해의 가능한 원인임이 가능한 것만 보이면 된다.
EU 규제당국은 공식적으로는 입증책임이 전적으로 역전되지 않았다고 주장하지만, 실제로는 상당한 정도의 입증책임 전환이 이루어진다. 한 번 추정이 확립되면, 피고인이 제품이 결함이 없거나 결함이 손해를 야기하지 않았음을 입증해야 한다는 점에서 입증책임이 사실상 역전된다. 특히 복잡한 경우에는 피고인이 복잡한 기술 시스템의 성격을 설명하는 방식으로 이러한 추정에 반박하기가 어려울 수 있다.
1.2 AI 시스템 특화 규정
제조물 책임지침은 AI 소프트웨어를 명시적으로 "제품"으로 정의한다. 이는 AI 시스템과 관련 손해에 대해 엄격한 책임 체계를 적용함을 의미한다. 지침은 또한 AI 기술의 특수성, 특히 자가학습 알고리즘의 진화하는 특성과 사이버보안 취약성을 고려한다.
지침의 중요한 혁신은 의무적 안전 요구사항 비준수에 대한 명확한 규정이다. 사이버보안 요구사항을 포함한 AI 성능 안전 요구사항을 준수하지 않는 경우, 제품은 결함이 있는 것으로 추정된다. 이는 AI 기업들이 최신 보안 표준과 성능 기준을 엄격하게 준수해야 함을 의미한다.
또 다른 핵심 규정은 **명백한 오작동(Obvious Malfunction)**에 대한 조항이다. 자가학습 알고리즘이 정상 사용 중에 명백하게 실패하는 경우, 결함성은 상세한 증명 없이 추정된다. 이는 예를 들어, 대출 승인 알고리즘이 차별적으로 작동하거나, 의료 진단 AI가 명백히 부정확한 결과를 산출하는 경우를 포함한다.
1.3 정보 비대칭 해결 메커니즘
제조물 책임지침의 가장 혁신적인 측면은 정보 비대칭 문제를 직접 해결하는 **증거 공개 의무(Disclosure Obligation)**이다. 법원은 피해를 입은 것으로 주장하는 자에게 제조업체가 보유한 관련 증거의 공개를 명령할 수 있으며, 이는 법정 절차에서 증거의 중요한 공개를 촉진한다.
제조업체가 증거 공개 의무를 이행하지 못한 경우의 법적 결과는 중대하다. 공개 명령을 준수하지 못하면 자동으로 제품 결함 또는 손해와 결함 간의 인과관계에 대한 추정이 생성된다. 이는 실질적으로 AI 기업들이 증거를 공개해야 한다는 강력한 인센티브를 제공한다.
특히 AI 산업에서 이 메커니즘은 두드러진 영향을 미친다. AI 시스템의 학습 데이터, 알고리즘 로직, 테스트 결과, 알려진 한계 등에 대한 상세한 기술 문서를 공개해야 한다. 이는 많은 기업들이 영업비밀로 간주해온 정보이므로, 규제 준수의 상당한 도전을 의미한다.
2단계: AI 배상책임지침과 국내 법제의 심층 분석
2.1 EU AI 배상책임지침의 보완적 프레임워크
AI 배상책임지침(AILD)은 제조물 책임지침을 보완하는 별도의 추정 메커니즘을 제공한다. AILD는 과거의 국가별 책임 규칙이 AI의 복잡성, 자율성, 불투명성으로 인해 피해 청구를 처리하기에 적합하지 않았다는 문제를 해결하기 위해 고안되었다.
AILD의 핵심 메커니즘은 **인과관계 추정의 역전(Rebuttable Presumption of Causality)**이다. AI 제공자가 주의의무를 위반했고 AI 시스템의 산출물이 손해를 야기한 경우, 그 위반이 손해를 초래했다는 추정이 자동으로 생성된다. 청구인은 피고인의 과실이 AI 시스템의 산출 또는 산출 불능에 영향을 미쳤을 가능성이 높으며, 그 산출이 주장된 손해를 야기했음을 보이기만 하면 된다.
AILD의 또 다른 중요한 특징은 **고위험 AI 모니터링 의무 불이행에 대한 자동 책임(Presumed Liability for Failure to Monitor)**이다. 최근 2024년 7월 개정안에서는 고위험 AI 시스템의 배포자가 "AI 시스템의 작동을 모니터링하지 않았거나 적절한 경우 AI 시스템의 사용을 중단하지 않은" 경우 인과관계 추정에 노출된다고 규정했다. 이는 배포자(Deployer)도 원래의 개발자만큼 중대한 책임을 진다는 의미이다.
2.2 한국 AI 기본법의 한계와 개정 필요성
2024년 12월 26일 통과된 한국 AI 기본법은 아시아 태평양 지역의 첫 번째 포괄적 AI 규제로, 2026년 1월 22일 발효된다. 그러나 한국의 현행 법제는 EU의 입증책임 전환 메커니즘과 비교할 때 AI 배상 책임 측면에서 심각한 한계를 노출하고 있다.
AI 기본법의 문제점: 첫째, AI 기본법은 고위험 AI에 대한 안전 의무와 투명성 요구사항을 규정하지만, 손해 발생 시 배상 책임과 보상 메커니즘을 명시하지 않는다. 현재 AI 기본법은 행정 제재(최대 KRW 30M, 약 USD 23,000)만을 규정하며, 민사 배상 책임을 다루지 않는다. 이는 피해자가 기존의 제조물책임법에 의존해야 함을 의미한다.
둘째, 한국의 기존 제조물책임법은 "제조 또는 가공된 동산(다른 동산이나 부동산의 부분을 이루는 것 포함)"으로 제품을 정의하며, AI 소프트웨어나 알고리즘이 이에 해당하는지 여부가 명확하지 않다. EU가 AI를 명시적으로 제품으로 정의한 것과 달리, 한국은 이 문제를 해결하기 위한 명확한 법정책을 제공하지 않는다.
셋째, 한국 법제에는 증거 공개 의무나 입증책임 전환 메커니즘이 없다. 피해자는 여전히 제조업체의 과실을 입증해야 하며, 정보 비대칭으로 인한 어려움을 극복해야 한다. 이는 AI 시스템의 복잡성과 불투명성을 고려할 때 매우 비현실적이다.
개정 필요성: 현재 한국은 AI 기본법을 "준수한 AI는 민사 책임을 질 수 없다"는 체계로 운영 중인 반면, EU는 "일반 제조물책임지침의 적용 가능성을 열면서 AI 배상책임지침으로 보완"하는 이중 구조를 채택했다. 이러한 접근의 차이는 한국 기업들에게 EU 시장에서 불리한 입장을 안겨준다.
한국의 민법 및 제조물책임법 개정이 시급한 이유는 다음과 같다. 첫째, 글로벌 시장 진출 기업들이 EU에 진출할 경우, 두 가지 법체계(한국 법제 + EU 법제)를 동시에 준수해야 하는 이중 규제 부담을 안게 된다. 둘째, 한국이 현행 법제를 유지하면 국내 기업들의 국제 경쟁력이 약화될 수 있다. 셋째, 국내 시장에서도 AI 관련 배상 소송이 증가하고 있으므로, 명확한 법적 기틀 없이는 법적 불확실성이 증대될 수 있다.
2.3 한국과 EU 책임 체계 비교
한국의 AI 기본법과 기존 제조물책임법, 그리고 EU의 제조물 책임지침과 AI 배상책임지침 간의 차이는 극명하다. EU 제조물 책임지침은 AI를 명시적으로 포함하면서 결함 추정, 인과관계 추정, 증거 공개 의무 등 다층적 메커니즘을 도입했으나, 한국은 이러한 조항들이 전무하다. EU 시스템에서는 개발자뿐만 아니라 배포자도 상당한 책임을 지며, 모니터링 실패 시 자동으로 책임이 추정되는 반면, 한국은 여전히 전통적인 과실 입증 원칙을 유지하고 있다.
증거 공개 의무 측면에서도 큰 차이가 있다. EU에서는 법원이 제조업체에게 증거 공개를 명령할 수 있으며, 불이행 시 자동으로 결함이 추정되지만, 한국에는 이러한 메커니즘이 없다. 이는 피해자가 정보 비대칭을 극복하기 훨씬 더 어렵다는 의미이다.
행정 제재의 규모도 극적으로 다르다. EU AI Act의 고위험 AI 미준수 시 최대 7% 전 세계 매출액 또는 EUR 3,500만의 벌금이 가능하지만, 한국 AI 기본법의 행정 벌금은 최대 KRW 30M으로 약 1,500배 이상 작다. 이는 글로벌 기업의 규제 준수 인센티브에 큰 차이를 만든다.
3단계: AI 관련 배상 소송의 급증 추세 및 경제적 영향
3.1 글로벌 배상 소송 현황

AI 관련 배상 소송이 지난 2년간 급격히 증가했다. 2023년에는 AI 제품 책임 청구 18건과 알고리즘 편향 은행 청구 15건, 총 33건의 주요 소송이 제기되었으나, 2024년에는 제품 책임 청구 52건, 알고리즘 편향 청구 38건으로 증가하여 총 90건의 소송이 제기되었다. 2025년 상반기까지 12건의 AI 관련 증권 소송이 이미 제기되었으며, 전체 AI 소송 건수는 2024년의 90건 이상으로 예상된다.
AI 세탁(AI Washing)이 주요 소송 트렌드로 등장했다. 기업들이 AI 역량을 과장하거나 오도하여 주가를 부풀리고 있으며, 이러한 사건들은 증권거래법(Securities Exchange Act) 10(b) 조항과 Rule 10b-5 위반을 주장한다. 2024년-2025년 AI 관련 증권 소송은 2023년 대비 104% 증가하여 현재 가장 빠르게 성장하는 소송 범주 중 하나가 되었다. 소송 건수뿐만 아니라 합의금도 급증했다. 2023년 평균 합의금이 USD 2.5M이었으나, 2024년 USD 8.1M으로 224% 증가했고, 2025년 USD 15.3M에 도달하여 512% 증가했다.
특히 금융 서비스 산업이 심각한 상황에 직면했다. 금융기관들은 2024년 AI 관련 소송이 폭발적으로 증가했으며, 알고리즘 편향이 주된 이유이다. 2024년 Urban Institute 분석에 따르면 흑인과 라틴계 차용자가 백인 차용자보다 대출 거절 가능성이 2배 이상 높았으며, 이는 AI 알고리즘이 공정성 법제를 위반했음을 시사한다. 2024년 은행 AI 분쟁이 2023년 대비 153% 증가했으며, 금융 기관들은 학습 데이터의 질, 편향 테스트, 설명 가능성 등에서 법적 책임을 물음받고 있다.
3.2 한국 시장의 배상 소송 전망
한국에서도 AI 관련 배상 소송이 증가할 것으로 예측된다. 현재 한국에서는 AI 기본법이 2026년 1월 22일 발효되면서 법적 기틀이 마련되고 있지만, 배상 책임 메커니즘의 부재로 인해 혼란이 야기될 가능성이 높다.
한국 기업들이 EU에 진출하면서 EU 제조물 책임지침의 적용을 받게 되는 것도 주요 위협이다. EU 지침은 EU에 제품이나 서비스를 제공하는 모든 기업에 적용되므로, 한국 기업들이 EU 시장에 진출할 경우 이 지침의 요구사항을 충족해야 한다. 이는 국내 기업들에게 상당한 법적 및 재정적 부담을 초래한다.
3.3 합의금 및 소송 비용의 폭증
평균 소송 합의금의 급증은 기업들의 재정적 위험을 증가시킨다. 2023년 USD 2.5M에서 2025년 USD 15.3M으로 증가한 것은 AI 관련 손해배상액이 빠르게 증가하고 있음을 의미한다. 특히 금융 서비스, 의료 진단, 자율주행차 등 고위험 분야에서는 개별 소송 합의금이 USD 50M을 넘을 수 있다.
소송 비용도 증가하고 있다. 2024년 금융 서비스 기업의 AI 관련 소송 평균 변론 비용이 USD 5-8M인 것으로 추정되며, 이는 전통적 제품 책임 소송의 2-3배이다. 복잡한 AI 알고리즘의 작동 원리를 설명해야 하는 기술적 난제로 인해 전문가 증인, 증거 분석, 법적 전문성 등에 대한 비용이 증가하고 있다.
4단계: 규제 준수의 경제적 부담 분석
4.1 부문별 규제 준수 비용

AI 알고리즘 규제 준수는 기업들에게 상당한 비용 부담을 초래한다. 금융 서비스 부문의 소규모 사업자는 연간 USD 16,000의 규제 준수 비용을 부담해야 하며, 이는 소규모 기업의 총 수익의 상당한 비율을 차지한다. 대형 기업도 예외는 아니다. 금융 서비스 대형 기업은 연간 USD 2.5M의 규제 준수 비용을 지출해야 한다.
자율주행차 산업은 가장 높은 규제 준수 비용을 마주하고 있다. 소규모 자동차 부품 제조업체는 연간 USD 45,000의 비용을 부담하고, 대형 자동차 제조업체는 연간 USD 12M을 지출해야 한다. 이는 자율주행차에 적용되는 고위험 AI 규정의 엄격함을 반영한다.
법무진의 증가도 상당하다. 금융 서비스 부문에서는 법무진이 35% 증가해야 하며, 자율주행차 산업에서는 42%, 법률 서비스 부문에서는 40% 증가해야 한다. 이는 규제 준수를 위해 전담 법률 전문가 팀을 구성해야 한다는 의미이다.
규제 준수 비용의 총액을 보면, 특정 부문에서는 경제적 영향이 극심하다. 콜로라도 AI 법안(SB24-205)에 대한 경제 분석에 따르면, 금융 서비스, 주택, 의료, 교육, 보험, 법률 서비스 6개 부문에서 생산 비용이 단 1% 증가할 경우, 2030년까지 경제 전체적으로 USD 53.7B의 GDP 손실과 713,000개 일자리 손실이 발생할 것으로 예측된다. 한국 기업들도 유사한 규제 준수 비용을 직면할 가능성이 높다.
4.2 소규모 기업의 경제적 압박
소규모 기업들이 규제 준수에서 특히 취약하다. 전국 소규모 기업의 65%가 상충하는 AI 법규로 인한 소송과 규제 준수 비용 증가에 우려하고 있다. 캘리포니아 개인정보 보호 규정과 새로운 사이버보안 요구사항을 준수하기 위한 비용이 소규모 기업에게 연간 약 USD 16,000에 달한다.
더 우려스러운 것은 규제로 인한 AI 사용 회피이다. AI를 사용하는 소규모 기업 소유자 중 1/3은 규제 준수로 인해 AI 사용을 축소할 계획이며, 1/5은 AI 사용이 덜 가능할 것이라고 표시했다. 이는 소규모 기업들의 혁신 능력과 경쟁력을 심각하게 훼손할 수 있다.
4.3 한국 기업의 이중 규제 부담
한국 기업들이 직면한 가장 심각한 문제는 이중 규제 부담이다. 한국 AI 기본법의 요구사항을 충족해야 하면서 동시에 EU 진출 시 제조물 책임지침의 요구사항을 충족해야 한다.
한국 기업이 EU에 AI 제품을 수출할 경우, EU 규제 준수 비용을 별도로 부담해야 한다. 이는 상당한 추가 비용을 의미하며, 특히 소규모 기업에게는 부담이 될 수 있다. EU의 입증책임 전환 메커니즘을 준수하기 위해 추가적인 증거 기록, 문서화, 감시 체계를 구축해야 한다.
5단계: 전략적 권고 사항 및 기업 대응 방안
5.1 AI 거버넌스 구축
기업들이 배상 소송의 위험을 최소화하기 위한 첫 번째 조치는 견고한 AI 거버넌스 체계를 구축하는 것이다. 이는 EU 제조물 책임지침의 준수에 필수적이며, 한국 AI 기본법과도 부합한다.
구체적 조치는 다음과 같다. 첫째, 고위험 AI 시스템에 대한 다단계 승인 프로세스를 수립해야 한다. 이는 AI 시스템의 배포 전에 법적 리스크, 편향성, 보안 문제를 사전에 검토하는 절차를 포함한다. 둘째, AI 개발 전 단계에 걸친 위험 관리 시스템을 구축해야 한다. 이는 한국 AI 기본법 Article 32의 요구사항이기도 하다. 셋째, 자율 AI 윤리위원회를 설립하여 컴플라이언스를 검증하고 인권 우려사항을 조사해야 한다.
구현 비용: 견고한 AI 거버넌스 구축에는 연간 USD 1.2M이 소요된다고 추정된다. 이는 상당한 투자이지만, 배상 소송 위험 감소(35%) 및 규제 위반으로 인한 벌금 회피를 고려하면 충분히 정당화된다.
5.2 증거 보존 프로토콜 수립
EU 제조물 책임지침의 증거 공개 의무 불이행은 자동으로 결함 추정을 초래하므로, 포괄적인 증거 보존 프로토콜을 수립하는 것이 매우 중요하다.
구체적 조치는 다음과 같다. 첫째, AI 시스템의 학습 데이터, 알고리즘 로직, 테스트 결과, 성능 지표, 알려진 한계를 기록하는 표준화된 문서 체계를 구축해야 한다. 둘째, 이 모든 정서는 접근 가능한 형식으로 체계적으로 관리되어야 하며, 법원의 공개 명령 시 신속하게 제출할 수 있어야 한다. 셋째, 법정 분쟁 발생 시 모든 관련 증거를 법적 보호 하에 즉시 보존하는 프로토콜을 수립해야 한다.
구현 비용: 증거 보존 프로토콜 수립에는 연간 USD 0.8M이 소요되나, 이는 가장 중요한 조치 중 하나이다. 불이행 시 배상 소송 위험 감소에 48%의 효과가 있기 때문이다.
5.3 설명 가능한 AI 문서화
EU 제조물 책임지침은 AI 시스템의 투명성과 설명 가능성을 명시적으로 요구한다. 포괄적인 설명 가능한 AI 문서화는 법적 방어와 규제 준수 모두에 필수적이다.
구체적 조치는 다음과 같다. 첫째, AI 시스템의 목적, 의도된 용도, 기술 사양, 의사결정 로직을 명확하게 기술한 기술 문서를 작성해야 한다. 둘째, 학습 데이터의 출처, 품질, 제한사항을 상세히 문서화해야 한다. 셋째, AI 시스템의 일반적인 오류 패턴, 알려진 편향, 성능 제한을 투명하게 공개해야 한다. 넷째, 사용자가 AI 시스템의 의사결정에 대해 인간의 설명을 요청할 수 있도록 하는 메커니즘을 구축해야 한다.
구현 비용: 설명 가능한 AI 문서화에는 연간 USD 1.5M이 소요되나, 이는 배상 소송 위험을 42% 감소시키는 효과가 있다.
5.4 포괄적 모니터링 시스템
EU AI 배상책임지침에서 배포자가 모니터링 실패로 인해 자동으로 책임을 질 수 있다는 규정은 포괄적 모니터링 시스템의 필요성을 강조한다.
구체적 조치는 다음과 같다. 첫째, AI 시스템의 실시간 성능을 모니터링하는 기술 인프라를 구축해야 한다. 둘째, AI 시스템이 비정상적으로 작동하거나 편향된 결과를 산출할 때를 감지하고 즉시 알림을 발생시키는 메커니즘을 구현해야 한다. 셋째, 문제 감지 시 사람의 개입 없이 자동으로 시스템을 일시 중지할 수 있는 기능을 구축해야 한다. 넷째, 정기적 감시 보고서를 작성하고 규제 기관에 제출할 수 있는 체계를 수립해야 한다.
구현 비용: 포괄적 모니터링 시스템 구축에는 연간 USD 2.1M이 소요되나, 이는 배상 소송 위험을 55% 감소시키는 가장 효과적인 조치이다.
5.5 공급업체 관리 강화
AI 제품 공급망에서 공급업체의 역할도 중요하다. EU 제조물 책임지침에서 공급업체도 제조자로 간주될 수 있으므로, 공급업체 관리를 강화해야 한다.
구체적 조치는 다음과 같다. 첫째, 공급업체 선정 시 법적 준수 능력을 평가해야 한다. 둘째, 계약에 EU 제조물 책임지침의 요구사항 준수를 의무화해야 한다. 셋째, 공급업체가 제공하는 AI 시스템의 문서, 증거 보존, 모니터링 절차가 표준에 부합하는지 정기적으로 감사해야 한다. 넷째, 공급업체가 결함이나 문제를 보고할 때 신속하게 대응할 수 있는 프로세스를 수립해야 한다.
구현 비용: 공급업체 관리 강화에는 연간 USD 0.6M이 소요되며, 배상 소송 위험을 28% 감소시킨다.
5.6 알고리즘 테스팅 인프라 구축
배상 소송에서 방어하기 위해 기업들은 AI 시스템의 명백한 오작동을 사전에 탐지할 수 있어야 한다. 알고리즘 테스팅 인프라의 구축은 이러한 필요성에 대응한다.
구체적 조치는 다음과 같다. 첫째, 배포 전 정기적인 편향성 테스트를 수행해야 한다. 둘째, 다양한 인구통계 그룹에 걸쳐 AI 시스템의 공정성을 검증해야 한다. 셋째, 알려진 문제 시나리오에서 AI 시스템이 어떻게 작동하는지 시뮬레이션해야 한다. 넷째, 배포 후에도 정기적으로 모델 성능을 재평가하고 성능 저하나 편향을 감지해야 한다.
구현 비용: 알고리즘 테스팅 인프라 구축에는 연간 USD 1.8M이 소요되며, 배상 소송 위험을 38% 감소시킨다.
결론 및 한국 기업의 향후 전략
본 연구는 EU 제조물 책임지침 2024/2853과 AI 배상책임지침의 입증책임 전환 메커니즘이 AI 기업들에게 미치는 정량적 영향을 분석했다. 주요 발견은 다음과 같다.
첫째, 입증책임의 사실상 역전: EU 제조물 책임지침은 공식적으로 입증책임 역전을 부인하지만, 결함 추정, 인과관계 추정, 증거 공개 의무 불이행 시 자동 추정 등의 메커니즘을 통해 실질적으로 피고인(제조업체)의 입증 부담을 크게 증가시킨다. 특히 증거 공개 의무 불이행은 즉시 결함 추정을 초래하므로, AI 기업들은 포괄적인 증거 보존 및 공개 체계를 구축해야 한다.
둘째, 배상 소송의 폭발적 증가: AI 관련 제품 책임 청구가 2023년 18건에서 2025년 78건으로 334% 증가했으며, 평균 합의금도 USD 2.5M에서 USD 15.3M으로 512% 증가했다. 특히 금융 서비스 분야의 알고리즘 편향 소송이 153% 증가했다. 글로벌 기업들이 배상 소송으로 인한 심각한 재정적 위험에 직면하고 있다.
셋째, 한국 법제의 심각한 한계: 한국의 기존 제조물책임법은 AI를 명시적으로 정의하지 않으며, AI 기본법도 배상 책임 메커니즘을 포함하지 않는다. 한국 기업들이 EU에 진출할 때 두 가지 법체계(한국 + EU)를 동시에 준수해야 하는 이중 규제 부담을 안게 된다. 이는 한국 기업들의 국제 경쟁력을 약화시킬 수 있다.
넷째, 경제적 부담의 가중: 규제 준수 비용이 부문과 기업 규모에 따라 크게 다르지만, 소규모 기업은 연간 USD 8,000-45,000의 비용을 부담해야 하고, 대형 기업도 연간 USD 1.2M-12M의 비용을 지출해야 한다. 콜로라도 AI 법안의 경우 생산 비용 1% 증가만으로도 2030년까지 USD 53.7B의 GDP 손실이 예상되며, 713,000개의 일자리 손실이 예측된다.
한국 기업의 향후 전략은 다음과 같아야 한다.
단기(2025-2026): 첫째, 포괄적인 AI 거버넌스 체계를 즉시 구축해야 한다. 둘째, 증거 보존 프로토콜을 우선적으로 수립하여 법정 공개 명령 시 대응할 수 있어야 한다. 셋째, 설명 가능한 AI 문서화를 완료하여 법적 방어 기반을 마련해야 한다. 넷째, 한국 AI 기본법의 요구사항을 충족하기 위한 리스크 관리 시스템을 구축해야 한다.
중기(2026-2027): 첫째, EU 제조물 책임지침의 2026년 12월 9일 완전 적용에 대비하여 포괄적 모니터링 시스템을 구축해야 한다. 둘째, 공급업체 관리를 강화하여 공급망 전체에서 규제 준수를 보장해야 한다. 셋째, 알고리즘 테스팅 인프라를 완성하여 명백한 오작동을 사전에 탐지할 수 있어야 한다.
장기(2027 이후): 첫째, 한국 정부가 제조물책임법 개정을 통해 AI를 명시적으로 정의하고 입증책임 전환 메커니즘을 도입하도록 로비해야 한다. 둘째, 국내 법제를 EU 기준과 조화시켜 기업들의 이중 규제 부담을 줄여야 한다. 셋째, AI 배상책임 보험 상품 개발을 촉진하여 기업들의 위험을 분산할 수 있도록 해야 한다.
결론적으로, AI 알고리즘의 배상 책임에 대한 글로벌 법적 패러다임이 빠르게 전환되고 있으며, 입증책임이 사실상 피고인으로 이동하고 있다. EU 제조물 책임지침과 AI 배상책임지침은 이러한 전환을 명시적으로 반영하고 있고, 한국도 이에 대응하기 위해 민사 법제를 현대화해야 한다. 한국 기업들이 글로벌 시장에서 경쟁력을 유지하기 위해서는 즉시 포괄적인 대응 전략을 수립하고 실행해야 한다.
What Does the New EU Product Liability Directive Mean for AI?
The Directive (EU) 2024/2853 on product liability, which replaces Council Directive 85/374/EEC, will enter into force on December 9, 2026. This new directive updates the liability framework to address modern technological advancements, particularly those i
www.linkedin.com
A new liability framework for products and AI
New circumstances relevant to safety to be accounted for when assessing defect, including those “required under Union or national law” – meaning that the court will look at a very broad range of circumstances, including (i) product recalls or regulat
www.kennedyslaw.com
Has the Revised Product Liability Directive reversed the Burden of proof placing it onto Producers T - Bird & Bird
On December 8, 2024, the Directive (EU) 2024/2853 on Liability for Defective Products (the so-called “Revised Product Liability Directive”) came into force, ushering in a major update to the Product Liability Directive that had been in place since 19
www.twobirds.com
https://www.ibanet.org/increased-liability-eu-product-directive
Increased liability due to the new EU Product Liability Directive: what does this mean for the medical and pharmaceutical indust
The introduction of the new EU Product Liability Directive aims at leading product laws to the digital age, including stricter liability for distributing digital and AI-based products. This has significant legal implications for both consumers and manufact
www.ibanet.org
When AI Goes Wrong: Emerging Litigation Trends in Banking Technology Disputes (via Passle)
The financial services industry is experiencing an AI revolution, but with innovation comes risk. According to the Bank of England, 75% of financial fir...
insights.michaelbest.com
chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://consorsegurosdigital.com/almacen/pdf/artificial-intelligence-and-liability-proposed-european-commission-directives.pdf
Unintended Costs: The Economic Impact of Colorado’s AI Policy
In Colorado, Senate Bill (SB) 24-205 takes effect on February 1, 2026, and attempts to regulate the use of high-risk AI systems.
www.commonsenseinstituteus.org
https://www.uschamber.com/technology/the-hidden-cost-of-50-state-ai-laws-a-data-driven-breakdown
How Patchwork AI Regulations Threaten Small Businesses
Learn why federal AI regulation is essential to prevent conflicting state AI laws that burden businesses and threaten U.S. innovation leadership.
www.uschamber.com
https://arakiplaw.com/en/insight/2409/
The Korean AI Basic Act: Asia’s First Comprehensive Framework on AI | 荒木法律事務所(Araki International IP&Law)
Read in PDF version (including citations) “Act on the Development of Artificial Intelligence and Establishment of Trust” that is a Korea’s comprehensive framework on AI was approved on December 26, 2024 and promulgated on January 21, 2025 in South Ko
arakiplaw.com
Artificial Intelligence 2025 - South Korea | Global Practice Guides | Chambers and Partners
1. General Legal Framework 1.1 General Legal Background Before the promulgation of the Framework Act on the Development of AI and the Establishment of a Foundation for Trust, etc, (the “AI Framework Act), the discourse around AI in South Korea (“Korea
practiceguides.chambers.com
https://hallboothsmith.com/south-korea-ai-law/
South Korea Passes AI Law
On December 26, 2024, South Korea made history by becoming the second country in the world to pass a comprehensive regulation governing artificial intelligence (“AI”).
hallboothsmith.com
'유용한 경제' 카테고리의 다른 글
| 지구 시스템 붕괴: 7개 경계 침범과 2년의 선택 (0) | 2025.11.22 |
|---|---|
| 국내 AI 기본법 생성형 AI 워터마크 의무화 미준수 및 딥페이크 오용 (0) | 2025.11.22 |
| 필코노미(Feelconomy)가 소비자 지출 및 브랜드 충성도에 미치는 정량적 영향 분석: 감성지능 경제 시대의 전략적 대응 방안 (1) | 2025.11.22 |
| 필코노미(Feelin' Economy) 및 감성지능 경제의 소비자 행동 분석 (1) | 2025.09.29 |
| 노화 상식 바로 알기 : 염증, 씨앗기름, 글루텐의 진실 (0) | 2025.09.15 |