(서울=NSP통신) 박유니 기자 = 국내 일부 대학들은 학생과 교수 등을 대상으로 챗GPT 활용 가이드라인을 제정해서 권고하고 있다. 국가정보원은 챗GPT 등 생성형 인공지능(AI) 기술 활용 과정에서 발생하는 보안 문제를 예방할 가이드라인을 마련해 공공기관 및 지방자치단체에 배포할 예정이라고 한다.

정부(행정안전부)는 앞으로 모든 정부·공공기관에서 생성형 AI 도입 및 구축을 할 수 있도록 올해 말까지 관련 가이드라인을 만들 계획이다. 이는 윤석열 대통령이 ‘챗GPT’ 등 생성형 인공지능(AI)을 정부 업무에 활용하라는 지시의 후속 조치로, 내년부터 정부·공공기관의 생성형 AI 도입이 본격화 될 전망이다.

전국민 생성형 AI 활용 가이드라인 (표 = 한국AI교육협회 제공)

행안부 산하기관인 한국지능정보사회진흥원(NIA)이 최근 정부·공공기관의 생성형 AI 도입 적합 분야와 구축 방안 등의 기준을 제시하기 위한 사업에 착수했다. 중앙부처와 산하 공공기관 뿐 아니라 전국 지자체들이 생성형 AI를 도입 및 구축할 때 활용할 수 있는 가이드라인을 만드려는 것이며, 올 연말 쯤 완성이 되면 그동안 생성형 AI를 도입하고 싶은데 어떻게 해야 할지 모르던 수많은 기관에게 기준점이 될 것이라고 한다.

학생과 교수 및 공무원 대상의 챗GPT 활용 가이드라인은 있지만 일반인을 위한 챗GPT 활용 가이드라인은 아직 없다. 문형남 숙명여대 경영전문대학원 교수는 한국AI교육협회·인공지능(AI)융합연구소·ESG메타버스발전연구원·대한민국ESG메타버스포럼 등과 함께 6개월 간의 연구 끝에 전국민이 사용할 수 있는 ‘생성형 AI 활용 가이드라인’을 제정해서 발표했다.

이번 가이드라인은 모두 10가지로 이뤄졌으며, 이를 잘 따르면 챗GPT 등 생성형 AI 사용에서 생기는 많은 문제점이 해소되며, 생성형 AI 사용의 긍정적인 효과로 우리나라가 AI강국이 되는 데도 많은 도움이 될 것으로 생각된다.

첫째, 생성형 AI의 특성과 장점 및 단점 등을 잘 이해하고 사용해야 한다. 먼저 생성형 AI가 어떻게 작동하는지 원리와 특징을 잘 이해해야 한다. 생성형 AI는 그럴듯하게 말(텍스트), 이미지, 동영상 등을 생성해서(만들어서) 답변을 해서 그 결과가 유용하게 활용될 수도 있지만, 답변 중에는 틀린 내용도 적지 않을 수 있다는 점을 간과해서는 안된다. 생성형 장점과 단점을 잘 알고, 장점을 잘 활용하고, 단점 부분을 잘못 활용하지 않도록 주의하여야 한다.

둘째, 생성형 AI를 사용할 때는 챗GPT, 바드, 빙 등을 복수로 사용한다. 현재 3대 생성형 AI는 챗GPT, 바드, 빙이다. 이 세 가지의 우열을 가리기는 어렵고, 어떤 때는 챗GPT가 좋은 답을 내놓만, 다른 때는 바드나 빙이 더 나은 답을 내놓기도 한다. 그러므로 생성형 AI를 사용할 때는 한 가지를 사용하기보다는 두 가지나 세 가지를 사용해서 더 나은 결과를 채택하거나 융합한 결과를 사용하는 것이 바람직하다.

셋째, 생성형 AI가 틀린 답을 할 경우, 생성형 AI에게 바른 답을 알려준다. 생성형 AI가 틀린 답을 하는 경우도 적지 않다. 대부분 사용자들은 생성형 AI가 틀린 답을 해도 답이 틀렸구나 하고 그냥 넘어가는 경우가 많다. 바람직한 사용법은 맞는 답을 알고 있다면 생성형 AI에게 알려줘서 고치도록 해야 한다.

넷째, 생성형 AI 사용자는 항상 윤리의식을 갖고 사용해야 한다. 생성형 AI를 통해서 범죄나 부당한 목적을 위헤서 정보를 얻거나 활용해서는 안된다. 생성형 AI 사용자는 스스로 윤리의식을 고취해야 하며, 틈틈이 생성형 AI에게도 윤리 교육을 해야 한다.

다섯째, 항상 보안의식을 갖고, 개인정보나 기업정보를 입력하지 말아야 한다. 생성형 AI에게 질문을 하면서 개인정보나 기업의 기밀정보를 입력해서는 안되며, 개인정보나 기업의 기밀정보를 얻으려고 해서도 안된다. 생성형 AI를 사용할 때는 항상 보안의식을 갖고 사용해야 한다.

여섯째, 생성형 AI의 답변 중에 틀린 내용을 분별할 수 있도록 노력해야 한다. 생성형 AI의 답변을 무분별하게 그대로 사용해서는 안된다. 기자들 중에는 생성형 AI에게 뭔가를 물어보고, 답변 내용에 대해 검증도 하지 않고, 생성형 AI에게 물었더니 이렇게 답변했다고 보도하는 경우가 적지 않다. 생성형 AI의 답변 내용에는 오류가 적지 않다는 인식을 갖고 답변 내용을 검증해야 한다.
일곱째, 생성형 AI 관련 기술과 부가 기능 등 최신 동향을 파악해서 활용한다. 생성형 AI 관련 기술이 매우 빠르게 발전하고 있으므로 최신 기술을 적용해서 생성형 AI 활용의 성과를 제고하는 노력이 필요하다.

여덟째, 생성형 AI를 활용해서 업무와 학습의 효율을 제고하도록 노력해야 한다. 생성형 AI를 잘 활용하면 업무와 학습의 효율을 크게 높일 수 있으므로 적절하게 활용하는 지혜가 필요하다. 반면, 생성형 AI를 사용하면서 시간 낭비를 하지 않아야 한다.

아홉째, 생성형 AI 관련해서 잘못된 정보들이 많은데, 이를 분별해야 한다. 시중에는 생성형 AI와 관련한 잘못된 정보들도 너무나 많다. 생성형 AI에 대한 책, 기사, 강의 등의 내용을 보면 틀린 정보를 제공하는 경우가 많다. 강사나 정보 제공자의 학력과 전공 및 실무 경력 등을 잘 살펴보고 받아 들여야 한다.

열 번째, 생성형 AI는 나를 도와주는 것이라는 정확한 관계 인식을 해야 한다. 생성형 AI와 좋은 관계를 설정하고, 나를 잘 돕도록 지속적으로 잘 조련(훈련)해야 한다. 생성형 AI는 사용자의 협력파트너로서 많은 도움을 줄 수 있다.

이번 ‘전국민 생성형 AI 활용 가이드라인’ 개발을 주도한 한국AI교육협회 회장인 문형남 교수는 “심혈을 기울여 만든 전국민용 가이드라인이 현재 추진되고 있는 여러 분야 가이드라인을 만드는 데 도움이 되고, 우리나라가 AI강국이 되는데 기여하면 좋겠고, 기술과 환경 변화에 따라 지속적으로 업그레이드한 버전을 발표할 것”이라고 말했다.

NSP통신 박유니 기자(ynpark@nspna.com)

ⓒ한국의 경제뉴스통신사 NSP통신·NSP TV. 무단전재-재배포 금지.