(서울=NSP통신) NSP인사 기자 = 미국 그랜드뷰 리서치(Grand View Research) 사는 2020년 전세계 AI 시장규모를 624억달러로 추정한다. 이는 지난해 반도체 DRAM 시장규모(646억달러, 원화77조원)와 맞먹는 수준이다. 특히 AI 시장은 연평균 42.2% 성장하여 2027년에는 7337억달러까지 성장할 것으로 예측한다. DRAM 시장 규모가 작년에 3.2% 성장한 것과 단순 비교해 볼 때, 향후에 AI 시장의 성장세는 가히 폭발적이라고 할 수 있다.

AI는 사람의 음성명령을 받아서 음악도 틀어 주고, 조명의 밝기도 조절해 준다. 음성명령을 통해 상품 주문도 해주고, 결제도 해준다. 자동차 업계에서는 얼굴인식 운전자 인증을 통해 사용자 편의 기능을 확대하고 있다. 대시보드 카메라는 얼굴인식 기술을 사용해 차량의 주요 운전자나 가족과 같은 인증된 운전자를 식별한다. 인증되지 않은 다른 사람이 운전석에 앉을 경우, 차의 시동을 차단하는 기능도 제공한다. 차 내부의 얼굴인식 기능은 개별 운전자의 운전 경험을 개인화하는 기능을 제공한다. 음악 볼륨, 운전자의 좌석 위치 등도 최적화시킨다.

유진호 교수 (상명대학교 제공)

의료 분야에서는 환자 기록 접근, 환자 등록 간소화, 환자의 감정이나 통증 감지, 특정 유전 질환의 식별에 도움이 되도록 얼굴인식 기술을 활용하고 있다.

AI 서비스가 확대되면서 윤리 문제와 개인정보보호 이슈도 커지고 있다. 최근 우리나라에서는 여성과 성 소수자 등 사회적 약자를 대상으로 혐오 발언을 한 AI 챗봇 ‘이루다’가 논란의 대상이 되었다. 해당 회사는 다른 서비스로부터 고객데이터를 수집·이용하면서 고객에게 제대로 알리거나 동의를 받지 않았고, 알고리즘 테스트 데이터에 대한 비식별 조치도 제대로 수행하지 않은 것으로 나타났다. 결국 서비스 운영을 중단하는 사태가 빚어졌다.

AI 챗봇 ‘이루다’의 서비스는 중단되었지만 새로운 AI 서비스는 멈춰서는 안된다. ‘이루다’가 이루지 못한 ‘윤리적이고 개인정보보호도 잘하는 AI’가 많이 나와야 한다. ‘이루다’의 사례는 우리에게 적잖은 교훈을 남겨주고 있다.

먼저, 기업은 새로운 AI 알고리즘을 적용해서 운영할 때에는 목적에 부합하는 결과가 도출되는지, 프라이버시 이슈는 없는지 반드시 확인해야 한다. 아무리 좋은 AI 서비스가 나와도 악성 이용자의 의도적인 인종차별이나, 성차별 등의 메시지 학습을 받아들인다면 바로 중단해야 한다. 이제는 악의적인 학습 등을 AI 기술로 차단하는 노력도 활발히 진행될 필요가 있다.

AI 서비스를 운영할 때에는 어떠한 정보의 수집이 허용되고, 허용되지 않는지, 그리고 해당 정보로 어떠한 일을 할 수 있는지 이용자들에게 명확히 밝혀야 한다. AI는 대량의 데이터를 필요로 하기 때문에 프라이버시 문제가 더 커질 수 있다. 개인정보 처리의 투명성 제고를 위해 기본적으로 AI 알고리즘이 어떤 개인정보를 사용하고 어떻게 보관하고 처리하는지 등에 대해서 정보주체에게 알려주는 것은 매우 중요하다. AI 기술로 더 편리하고 개인에 최적화된 서비스가 다양해지고 있는 시점에서, AI 학습에 필요한 데이터가 수집되고 처리되는 과정에서 정보주체가 안심할 수 있도록 명확하게 밝히는 것은 AI 시대 개인정보보호의 기본 원칙이다.

또한 기업은 공정하고 투명한 시스템 구축을 위해 AI 알고리즘 사용결과에 대한 투명성 보고서를 스스로 발행해서 공개하는 것도 검토할 필요가 있다. 지금까지 구글, 애플 등 해외 기업들과 네이버, 카카오 등의 국내 선도기업들은 정부의 이용자 정보 제공요청, 콘텐츠 삭제요청 등에 따른 통계를 정기적으로 보고서(Statement) 형태로 공개하고 있다. 기업은 투명성 보고서를 통해 특정 기간 동안 정부에서 요청한 이용자 관련 정보의 통계를 공개함으로써 이용자 정보가 얼마만큼, 어떤 방식으로 제공되었는지를 알려준다. 주로 제3자의 요청에 의한 처리현황 통계이다.

이제는 AI 서비스를 제공하는 기업에서는 기업 스스로 만들어내는 통계를 공개하는 것을 검토할 필요가 있다. AI 기술로 인한 자동화한 의사결정 시스템의 오류율, 데이터 사용 내역, 데이터 정확성 정도 등에 대해 통계로 공개하는 것이다.

우리 일상의 많은 것들이 AI 기반의 자동화된 의사결정에 의해 작동하게 됨에 따라, 그 알고리즘이 기본적으로 어떤 데이터를 사용하는지, 어떤 가정하에 데이터를 사용하는지, 데이터 사용의 결과는 얼마나 정확했는지 등에 대해 투명하게 공개하는 것은 AI 산업의 발전을 위해서도 필요한 일이다.

유진호 교수는 한국전자통신연구원, IBM, 한국인터넷진흥원에서 근무했고, 현재 상명대학교 산학협력단장, LINC+ 사업단장, 빅데이터연구소장을 맡고 있다. 개인정보보호, 빅데이터, AI 분야에 관심을 갖고 지능정보사회 대비 사이버보험 활성화 방안 연구 등을 수행했다.

NSP통신 people@nspna.com
저작권자ⓒ 한국의 경제뉴스통신사 NSP통신·NSP TV. 무단전재-재배포 금지.