EU, 윤리적 AI 개발 위한 7대 가이드라인 발표
상태바
EU, 윤리적 AI 개발 위한 7대 가이드라인 발표
  • by 황승환

유럽연합(EU)은 지난해 여름 기업, 학계, 사회 부문 등의 전문가 52명으로 구성된 위원회에서 논의된 인공지능(AI) 기술에 대한 윤리적 초안을 12월 완성했다. 8일(현지시간) 초안을 토대로 7개 항목의 윤리적 인공지능 개발을 위한 가이드라인을 발표했다. 강제성이 있는 것은 아니지만 고도화되고 경쟁이 치열한 인공지능 개발 경쟁에서 중요한 지침이 될 내용이다. 

  • 인간의 기본권과 감독: 인공지능은 인간의 기본 권리와 자율성을 침해해서는 안 되고 인공지능이 내리는 모든 결정에 대해 인간이 개입, 감독할 수 있어야 한다. 

  • 견고함과 안정성: 인공지능은 안전하고 정확해야 한다. 적대적 외부 공격에 의해 쉽게 손상되지 않아야 하며 합리적으로 신뢰할 수 있어야 한다. 

  • 개인 정보 보호 및 데이터 관리: 인공지능 시스템이 수집한 개인 데이터는 안전하게 사생활이 보장되어야 하며 권한 없이 쉽게 접근, 강탈되지 않아야 한다. 

  • 투명성: 인공지능 시스템의 알고리즘, 데이터에 접근할 수 있어야 하며 운영자는 인공지능 시스템이 내리는 결정에 대해 설명할 수 있어야 한다. 

  • 다양성, 공정성, 차별 금지: 인공지능이 제공하는 서비스는 연령, 성별, 인종 등 기타 구분에 관계없이 모든 사람이 사용할 수 있어야 한다. 시스템 구성 역시 편향되지 말아야 한다. 

  • 사회적 복지: 인공지능 시스템은 긍정적인 사회 변화와 지속성을 위해 사용되어야 한다. 

  • 책임: 인공지능 시스템과 그로 인해 발생하는 결과에 책임져야 하고 시스템 오류, 부정적 결과를 사전에 인지하고 책임질 수 있는 시스템을 구축해야 한다. 
 
[리뷰전문 유튜브 채널 더기어TV]
이 기사를 공유합니다
ABOUT AUTHOR
황승환
황승환 aspen@thegear.net

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
COMMENT 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.