AI 일상화 3대 프로젝트 차원서 추진
위험 유형에 따라 9대 핵심요건 제시
가짜뉴스·사생활 침해 맞서 선제 활용
이용자를 중심으로 AI 운영자와 개발자가 지켜야 할 윤리적 준수사항을 담은 것으로, 민간기업에 대한 규제적 접근이 아니라 자율적으로 준수할 규범을 제시한 것이라고 재단은 설명했다.
윤리 가이드라인은 재단이 지난달 말 발표한 서울시민 AI 일상화 3대 프로젝트 가운데 하나로, 디지털 권리장전 제정과 함께 분야별 윤리 가이드라인을 마련한다는 정부 정책 기조에 따른 것이다.
시는 이용자 중심, 위험예방, 지속가능성을 3대 기본원칙으로 선정했다. 이용자의 의도에 따라 능동적인 결과를 생성하는 AI의 특성과 삶의 질, 도시경쟁력이라는 서울시의 핵심가치를 밑바탕에 둔 원칙이다.
윤리 가이드라인은 3대 기본원칙을 바탕으로 이용자의 검증 역량, 책임성, 데이터 권리와 책임, 사용가능성 확보, AI 학습데이터 안전성, AI 윤리 소양, 공공성, 생태적 지속가능성, 보안성 등을 9대 핵심요건으로 제시했다.
오달란 기자