AI 피해에 대한 책임이 누구인지 고려

상원 AI 인사이트 포럼에서는 AI로 인해 피해가 발생할 경우 누가 책임을 져야 하는지 등 AI 규제 프레임워크 개발에 대해 논의했습니다.

상원 AI 통찰력 포럼, AI 피해에 대한 책임이 누구인지 고려

미국 정부 상원 AI 인사이트 포럼에서는 해로운 AI 결과에 대한 책임이 누구에게 있는지 식별하는 방법과 그러한 피해에 대한 책임을 부과하는 방법을 포함하여 AI 안전을 위한 솔루션을 논의했습니다. 위원회는 Mozilla 재단의 Mark Surman 회장이 오픈 소스 AI 커뮤니티의 관점에서 제시한 솔루션을 들었습니다.

지금까지 상원 AI 인사이트 포럼은 AI, Google, Meta, Microsoft 및 OpenAI의 지배적인 기업 게이트키퍼가 지배해 왔습니다.

2023년 9월 13일에 열린 첫 번째 AI 인사이트 포럼은 엘리자베스 워렌(D-MA) 상원의원으로부터 위원회 결과에 영향을 미쳐 가장 많은 혜택을 받을 수 있는 기술 거대 기업이 주도하는 비공개 회의라는 이유로 비판을 받았습니다.

수요일은 오픈 소스 커뮤니티가 규제가 어떤 모습이어야 하는지에 대한 자신들의 입장을 제시할 기회였습니다.

 

마크 서먼(Mark Surman) 모질라 재단 회장

Mozilla 재단은 인터넷을 개방적이고 접근 가능하게 유지하는 데 전념하는 비영리 단체입니다. 최근에는 공익을 위한 AI 홍보에 전념하는 공익 연합을 지원하기 위해 2억 달러 기금에 기부한 기관 중 하나였습니다. Mozilla 재단은 오픈 소스 AI 생태계를 육성하는 Mozilla.ai도 만들었습니다.

  1. 개방성과 투명성 장려
  2. 책임을 공평하게 분배
  3. 기본적으로 개인 정보 보호 옹호
  4. 개인정보 보호 강화 기술에 대한 투자
  5. 책임의 공평한 분배

이 5가지 사항 중 책임 분배에 관한 사항은 AI에 문제가 생겼을 때 누가 잘못했는지 식별하고 과실 당사자에게 책임을 부과하는 방법에 대한 앞으로의 조언을 제공하기 때문에 특히 흥미롭습니다.

누가 잘못했는지 식별하는 문제는 처음 보이는 것처럼 간단하지 않습니다.

Mozilla의 발표에서는 이 점을 다음과 같이 설명했습니다.

“AI 시스템의 복잡성으로 인해 데이터 수집부터 모델 배포까지 전체 가치 사슬을 고려하는 책임에 대한 미묘한 접근 방식이 필요합니다.

책임은 집중되어서는 안 되며 AI가 개발되어 시장에 출시되는 방식을 반영하는 방식으로 분배되어야 합니다.

잠재적인 피해의 근본적인 원인을 완화할 수 없는 위치에 있는 경우가 많은 이러한 모델의 배포자를 단순히 살펴보는 대신, 보다 전체적인 접근 방식은 개발 ‘스택’ 전반에 걸쳐 관행과 프로세스를 규제하는 것입니다.”

개발 스택은 기본 모델을 훈련하는 데 사용되는 데이터를 포함하는 AI를 생성하기 위해 함께 작동하는 기술에 대한 참조입니다.

챗봇이 해로운 조언을 하면 누가 책임을 져야 할까요? 기술을 개발한 회사인가, 아니면 모델을 미세 조정한 회사인가?

Surman의 진술은 다음과 같이 더 자세히 설명되었습니다.

“지난 몇 년 동안 EU AI법에 대한 우리의 작업을 통해 누가 잘못했는지 식별하고 AI 가치 사슬에 따라 책임을 부여하는 것이 어렵다는 것을 보여주었습니다.

교육 데이터 세트부터 기초 모델, 동일한 모델을 사용하는 애플리케이션에 이르기까지 개발 및 배포 전반에 걸쳐 다양한 지점과 계층에서 위험이 나타날 수 있습니다.

동시에 피해가 어디서 발생하는지 뿐만 아니라 누가 피해를 가장 잘 완화할 수 있는지도 중요합니다.”

AI 피해에 대한 책임을 부과하기 위한 프레임워크

상원 위원회에 대한 Surman의 성명서는 어떤 주체가 피해에 책임이 있는지를 다루기 위해 개발된 모든 프레임워크가 전체 개발 체인에 영향을 미쳐야 한다고 강조합니다.

그는 여기에는 개발 스택의 모든 수준을 고려하는 것뿐만 아니라 기술이 사용되는 방식도 포함하며, 책임을 지는 사람은 Surman이 ” 가치 사슬.”

즉, AI 제품이 환각(거짓말을 하고 허위 사실을 만들어내는 것을 의미함)을 하는 경우 해당 피해를 가장 잘 완화할 수 있는 개체는 기본 모델을 만든 개체이고, 그 정도는 덜하지만 모델을 미세 조정하고 배포하는 개체입니다.

Surman은 다음과 같이 말하면서 이 점을 결론지었습니다.

“책임을 부과하기 위한 모든 프레임워크는 이러한 복잡성을 고려해야 합니다.

필요한 것은 이를 탐색하기 위한 명확한 프로세스입니다.

따라서 규제는 피해의 발견 및 통지(노출될 가능성이 있는 단계에 관계없이), 근본 원인이 어디에 있는지 식별(변압기 모델의 경우 기술 발전이 필요함) 및 메커니즘을 지원해야 합니다. 이러한 발전의 근본 원인을 고치거나 고치지 않은 것에 대해 책임자에게 책임을 묻습니다.”

 

AI 피해의 책임은 누구에게 있습니까?

Mozilla 재단의 Mark Surman 회장은 규제의 미래가 어떤 모습이어야 하는지에 대해 훌륭한 지적을 했습니다. 그는 중요한 개인 정보 보호 문제에 대해 논의했습니다.

그러나 특히 흥미로운 점은 책임 문제와 AI가 잘못되었을 때 책임이 누구인지 식별하기 위해 제안된 독특한 조언입니다.

Leave a Comment