• 프린트
  • 메일
  • 스크랩
  • 글자크기
  • 크게
  • 작게

정부, AI 신뢰성 확보…AI 생성물 워터마크 도입

제4차 AI 최고위 전략대화…내달 AI 신뢰성 자율 인증 추진

박지혜 기자 | pjh@newsprime.co.kr | 2023.10.25 11:24:08
[프라임경제] 정부가 인공지능(AI) 신뢰성 확보에 나섰다. AI가 생성한 결과물에 워터마크를 삽입하는 것을 제도화하고, AI 신뢰성 확보를 위한 기술을 개발한다.

과학기술정보통신부는 25일 서울 강서구 LG사이언스파크에서 '제4차 인공지능 최고위 전략대화'를 개최했다. = 박지혜 기자


이종호 과학기술정보통신부(이하 과기정통부) 장관은 25일 서울 강서구 마곡 소재 LG사이언스파크에서 '제4차 AI 최고위 전략대화'를 열었다.

이 자리에는 고학수 개인정보보호위원회 위원장, AI 분야 민간 최고위 관계자들이 참석해 안전한 AI 확산 방안에 대해 논의했다. 

이번 행사는 지난 9월 '대한민국 초거대 AI 도약' 행사에서 기업들이 AI 신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련됐다.

과기정통부는 그간 진행한 간담회와 현장방문 등에서 수렴한 의견들을 토대로 'AI 윤리·신뢰성 확보 추진계획'을 발표해 향후 민·관이 함께 나아가야 할 방향에 대해 공유했다.

AI 윤리·신뢰성 확보 추진계획은 △민간 자율 AI 윤리·신뢰성 확보 지원 △세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련 △사회 전반 책임 있는 AI 의식 확산 등을 골자로 한다.

주요국과 국제기구들이 AI 신뢰성 확보를 산업 발전의 전제로 인식해 가이드라인 등 자율 실천방안을 제시하는 상황에서 '국가 인공지능 윤리기준'의 구체적 실천수단으로 채용, 생성형 AI 기반 서비스 등 분야별 가이드라인을 마련해 확대한다. 

또 민간 자율 신뢰성 검·인증을 11월부터 추진할 계획이다. 특히 AI 사업 중 고위험 영역 AI 개발·실증 사업을 수행하는 기업을 일부 선정해 오는 12월 시범 인증을 추진할 예정이다.

아울러 AI 자체가 내포하는 편향성 등 기술적 한계와 AI 오작동 등에 따른 AI의 잠재 위험요인에 대응하기 위해 기존 AI의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 차세대 기술 개발을 내년부터 신규로 추진한다.

AI가 생성한 결과물에 대한 워터마크 도입의 제도화를 검토한다. 고위험 AI에 대한 해설서를 내년 1분기 중 마련하는 등 신뢰성 확보를 위한 제도 정립에 나선다.

민간에서는 김유철 LG AI 연구원 부문장이 'AI 윤리원칙 실행을 위한 기업의 노력'을, 김동민 JLK 대표가 '고위험 AI 분야에 대한 신뢰성 검·인증의 필요성'에 대해 발표했다. 

이어 진행된 주제별 토론에서 기업들은 AI 생성물에 워터마크 도입, 신뢰성 확보 기술개발과 책임있는 거버넌스 구축 등 기업의 자발적인 노력을 공유했다.

초거대 AI 기업들은 AI가 생성한 결과물에 대한 '가시적 워터마크' 도입이 필요하다는 점에 공감하고, 기술적 완성도를 고려해 자사 서비스에 단계적으로 적용하는 것에 동의했다.

AI 윤리교육과 전문 인력의 필요성, AI 윤리·신뢰성 표준 제정의 중요성 및 글로벌 AI 규범을 선도하기 위한 방안 등도 논의됐다.

이종호 장관은 "AI는 디지털 심화 시대의 핵심기술로서 AI의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다"고 강조했다.

이어 "민간 자율 AI 신뢰성 검·인증 지원을 비롯한 AI 윤리 생태계 기반 조성과, 적합한 규제 체계를 정립해가는 데 힘쓰고, 관계부처와 함께 AI 윤리·신뢰성을 확보할 수 있는 정책방안을 보완해 새로운 디지털 질서의 모범이 되기 위해 최선을 다하겠다"고 덧붙였다.

고학수 개인정보위원장은 "정부와 함께 기업들도 이용자가 신뢰할 만한 AI 환경을 조성하는 데 투자하고, 투명성 확보를 위해 노력해주기를 부탁한다"고 당부했다.

  • 이 기사를 공유해보세요  
  •  
  •  
  •    
맨 위로

ⓒ 프라임경제(http://www.newsprime.co.kr) 무단전재 및 재배포금지