Notice
Recent Posts
Recent Comments
Link
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Archives
Today
Total
관리 메뉴

DDOLKONG

(나라경제)AI와 미래 - KDI 경제정보센터 본문

투자

(나라경제)AI와 미래 - KDI 경제정보센터

DDOL KONG 2024. 3. 3. 15:00

일상까지 스며든 AI, 책임감 있는 AI 관리체계 논의 시작되다

지난 1월 9~12일 미국 라스베이거스에서 열린 세계 최대 정보기술(IT)·가전 전시회인 ‘CES 2024’는 기술혁신이 일상을 바꾸는 모습을 한눈에 보여줬다. 그중 가장 주목을 받은 것은 챗GPT에서 성능이 입증된 ‘생성 AI’다. 미국 아마존은 자동차에서 운전자 비서 역할을 하는 음성대화 AI ‘알렉사(Alexa)’를 선보였고, 이스라엘의 인튜이션 로보틱스는 어르신들을 위한 소셜 동반자 AI 로봇 ‘엘리큐(ElliQ)’를 공개했다.

이처럼 컴퓨터나 스마트폰에서 작동하던 생성 AI가 이제 다양한 기기로 들어오면서 일상이 획기적으로 바뀌게 될 전망이다. 이와 함께 AI의 안전성과 규제방안을 따지는 윤리, 법률에 대한 논의도 본격화되고 있다. 사람을 돕기 위해 개발된 혁신기술이 자칫 소수에게만 혜택을 주거나 편향된 정보로 인간을 위협하는 부작용을 낳을 수 있기 때문이다.

테크 기업마다 생성 AI 개발 경쟁 활발

챗GPT는 미국 오픈AI가 2022년 11월 공개한 대화형 AI다. 공개되자마자 챗GPT에 질문을 던지는 게 일종의 ‘밈(meme; 인터넷 유행 콘텐츠)’처럼 퍼질 정도로 폭발적인 인기를 얻었다. 챗GPT에서 챗은 ‘대화(chat)’를 의미하고, GPT는 ‘사전 훈련된 생성 변환기(Generative Pre-trained Transformer)’라는 뜻의 영문 약자다. 챗GPT를 생성 AI라고 하는 것도 그 때문이다.

GPT의 기원은 구글이 2017년에 처음 발표한 논문에 등장하는 신경망 모델인 ‘트랜스포머(Transformer)’다. 신경세포들은 감각기관에서 뇌까지 일렬로 정보를 전달하지 않고 서로 복잡하게 얽혀 신호를 주고받는 과정을 거친다. 마찬가지로 트랜스포머는 문장 속의 단어와 같은 순차적인 데이터 내의 관계를 추적해 맥락과 의미를 학습한다.

챗GPT는 구글의 트랜스포머처럼 하나의 단어 다음에 어떤 단어가 오는 게 좋을지 적절한 단어를 통계적·확률적으로 예측한다. 데이터가 많을수록 답변도 더 좋아진다. 세계적인 테크 기업들이 저마다 거대언어모델(LLM; Large Language Model) 기반 AI를 개발하는 이유다.

오픈AI의 챗GPT에 이어 구글은 ‘바드(Bard)’를 출시했다. 구글의 이메일과 문서, 데이터 작업과 매끄럽게 통합된다는 장점을 내세웠다. 오픈AI에 투자한 마이크로소프트는 ‘코파일럿(Copilot)’으로 경쟁에 나섰다. 구글과 마찬가지로 수백만 명이 매일 사용하는 마이크로소프트의 앱에 AI를 주입하는 장점이 있다.

메타는 지난해 ‘라마 2(Llama 2)’를 공개하고 개발자들에게 무료로 오픈소스를 제공했다. 사용자들은 클라우드(가상 서버) 서비스 이용료만 내면 된다. 업계는 과거 구글이 아이폰과 경쟁하기 위해 안드로이드 운영시스템을 오픈소스로 공개한 것처럼, 메타도 비슷한 방식으로 AI의 LLM에서 주도권을 확보하려는 것이라고 분석했다.

한편 오픈AI 출신 연구원들이 설립한 미국 앤트로픽은 지난해 ‘클로드(Claude)’를 발표했다. 회사는 당시 클로드가 ‘헌법 AI’라는 기술 준칙을 따르고 있다고 강조했다. 클로드는 인종차별이나 성희롱, 불법적인 콘텐츠를 생성하라고 요청하면 답변을 꺼린다. 구글, 아마존이 대규모 투자를 진행했으며 국내에서도 SK텔레콤이 1억 달러를 투자했다.

다보스포럼의 화두가 된 ‘AI 규제’

윤리적 AI를 내세운 기업이 나온 것은 생성 AI의 기술혁신 속도가 예상을 넘어서면서 예측하지 못한 부작용이 나올 수 있다는 우려가 커지고 있기 때문이다. 실제로 지난 1월 15~19일 스위스 다보스에서 열린 세계경제포럼(일명 다보스포럼)에서 크리스탈리나 게오르기에바 IMF 총재는 “전 세계 일자리의 약 40%가 AI의 영향을 받을 것”이라며 “선진국과 일부 신흥국에서는 그 비율이 60%에 달할 수도 있다”고 내다봤다.

특히 정부 대표들은 책임감 있는 AI 거버넌스(관리체계)의 필요성에 공감했다. 안토니우 구테흐스 유엔 사무총장은 다보스포럼 연설에서 “각국 정부가 기술 기업과 협력해 현재의 AI 개발과 관련된 위험관리 토대를 마련하고 미래의 피해를 감시·완화하기 위해 노력해야 한다”고 강조했다. 베라 주로바 EU 집행위 부위원장은 AI가 초래할 위기를 관리하려면 규제가 중요하다고 주장했고, 리창 중국 총리는 글로벌 AI 거버넌스의 중요성을 지적했다.

기업들도 AI 규제의 필요성에 공감했다. 오픈AI의 CEO 샘 올트먼은 “AI를 통해 인간은 그 어느 때보다 더 나은 도구와 더 많은 기능을 이용할 수 있게 됐다”라고 평가하면서도 “사람들이 AI의 이점을 활용하는 동시에 위험을 관리하는 데 필요한 기술을 갖추는 것이 중요하다”라고 강조했다. 메타의 수석 AI 과학자인 얀 르쿤은 혁신과 규제에 대한 균형 잡힌 접근의 필요성을 강조했다. 규제가 지나치면 기술혁신을 가로막을 수 있다는 것이다.

1984년 개봉한 SF영화 <터미네이터>는 AI 로봇이 인간 세상을 지배하는 암울한 미래를 그렸다. 기계와 싸우던 반군의 지도자가 안드로이드 전투 로봇을 과거로 보내 인류 멸망의 시초가 된 AI 컴퓨터를 파괴하려고 하는 것이 영화의 주 내용이다. 영화의 상상력은 점점 현실이 되고 있다. 그러나 영화처럼 과거를 바꾸는 것보다 처음부터 문제점을 예방하는 것이 훨씬 쉬운 길이지 않을까.

특집 이영완.pdf
0.84MB




일상부터 업무까지 AI와 함께하는 하루

특집_인포그래픽.pdf
5.57MB




고도화하는 기술만큼 안전성 위한 연구와 제도 수반돼야

바야흐로 AI가 일상이 되는 시대가 도래했다. AI 기술은 점차 고도화되고 연일 새로운 관련 기사들이 업로드되고 있다. 최근 AI 분야에서의 화두는 단연 생성 AI다. 생성 AI는 사용자의 요청에 따라 검색, 작문, 요약, 그림, 프로그램 코드 작성 등 다양한 정보처리의 결과물을 만들어내는 AI다. 2022년과 2023년은 가히 생성 AI의 춘추전국시대라 할 만큼 다양한 생성 AI들이 쏟아져 나왔다. 구글, 오픈AI, 마이크로소프트, 메타, 스태빌리티 AI, 미드저니 등 글로벌 빅테크 기업들과 AI 스타트업들이 저마다 경쟁력을 갖춘 AI 모델을 내놨다.

일부 모델들이 공개된 직후 뜨거운 관심 속에서 모델의 우수한 성능에 놀라워하는 사용자들의 후기가 급증했다. AI의 성능이 고도화되는 만큼 AI로 인해 그려지는 장밋빛 미래에 대한 기대감이 커지고 있는 상황이지만, 한편으로는 AI가 불러일으킬 여러 부작용에 대한 현명한 대처가 필요한 시점이기도 하다.

필요한 것 ‘알아서’ 해주는 AI,
의료서비스 품질 고도화 등에도 사용

생성 AI를 포함한 모든 AI는 인간의 편의를 극대화하기 위해 만들어진 도구다. AI의 확대와 활용이 우리 사회에 가져올 긍정적 변화를 네 가지 부문에서 짚어보자면 우선 일상의 편리함이 있다. AI 기술 기반 가전제품, 스마트폰, 승용차 등은 자동화를 통해 사용자가 원하는 것 또는 필요한 것을 ‘알아서’ 해주는 편리함을 가져다준다. 이를테면 스마트 홈 네트워크에 연결된 냉장고는 내부의 카메라 등 센서를 통해 달걀, 우유 등의 재고량과 신선도(유통기한 또는 입고된 날짜 등)를 감지하고, 사용자가 미리 설정해 놓은 제품을 온라인에서 자동으로 주문한다. 주문 전에 사용자에게 최종 확인을 받거나 그마저도 사전에 설정해 놓으면 알아서 주문과 결제를 진행한다. 사용자가 일일이 신경을 쓰지 않아도 신선한 식자재로 채워진 상태를 유지할 수 있는 것이다.

예술·문화 영역에서는 높은 효율성과 서비스의 품질을 기대할 수 있게 된다. 기존보다 월등한 고품질의 이미지나 영상 속의 인물, 자연환경, 생명체 등과 같은 콘텐츠를 제작할 수 있어 제작자의 작업 생산성과 효율성이 높아지는 것이다. 2023년 미국의 ICT 시장조사 기업 가트너의 한 보고서에 따르면 2025년에는 광고 마케팅 메시지의 30%가 생성 AI를 활용해 만들어질 것이며, 2030년에는 작품의 90% 이상을 AI가 만든 블록버스터 영화가 나올 전망이다.

또 의료 부문에서는 보다 정밀한 진단과 정확한 처방이 가능해지고, 신약 제조 기간을 획기적으로 단축할 수 있게 된다. 환자의 임상 데이터를 AI로 분석하는 수준을 넘어서 환자의 신체조건과 동일한 가상의 합성 환자(synthetic patients)를 만들어 약물 주입을 통한 병리적 임상 관찰 및 진단을 더 쉽고 빠르고 저렴하게 수행할 수 있다. 미국 워싱턴대는 2021년 코로나19에 대한 임상실험에 이러한 방법을 활용한 바 있다. 이는 곧 의료서비스 품질의 고도화로 이어지게 될 것이다.

사무 영역도 예외가 아니다. 마이크로소프트는 문서 제작 패키지인 오피스 365에 오픈AI의 GPT 엔진 기반 코파일럿 기능을 탑재했다. 이 기능은 특정 주제의 문서 초안을 만들어주고 내용에 걸맞은 디자인의 발표 자료를 만들어낸다.

가짜뉴스, 피싱, 개인정보 무단 도용 등
다양한 사이버 범죄 도구로 악용될 수도

이처럼 AI는 도구로써 다양한 분야에 활용돼 삶과 사회 전반에 편리함을 제공하게 될 것이다. 반면 AI의 활용과 확산으로 인해 발생할 수 있는 부정적인 측면 혹은 대응해야 할 과제들도 역시 존재한다. 가장 대표적인 사례는 AI 악용이다. 여기에는 AI로 만든 가짜정보 유포, 개인정보 탈취 및 인권 침해, AI를 활용한 부정행위, 군사적인 목적 이외의 살상 기계 고도화 등이 해당한다.

AI 기술이 고도화됨에 따라 ‘진짜 같은 가짜’를 만드는 사례들이 늘고 있다. 이미 수년 전부터 정치인의 얼굴을 합성한 가짜 영상, 유명 연예인을 합성한 음란물, 친구나 가족으로 위장한 피싱 사례 등 AI는 범죄에 다양하게 악용되고 있다. 또한 SNS를 통해 업로드된 사진과 영상 등 개인정보를 무단으로 도용하고 피해자를 철저하게 속이는 행위도 점차 늘고 있다.

그뿐만 아니라 AI는 부정행위도 더욱 손쉽게 만들어 준다. 각종 시험이나 대회에서 AI의 도움을 받은 작품이 입상하거나, 에세이 과제를 AI로 만들어 제출하기도 한다. 또한 정보를 탈취·편취하거나 시스템을 마비시키기 위한 목적의 악성코드를 초보자도 쉽게 만들 수 있는 등 AI를 악용한 사이버 범죄에 노출될 위험도 크다.

한편 방어적인 목적 이외의 테러용 자율 살상 무기들도 국가와 국민을 위협하는 존재다. 주요국 및 테러 단체들은 많은 협회·단체들과 여론의 반대에도 불구하고 AI 기반의 자율무기 개발과 도입 경쟁에 뛰어들고 있는 실정이다.

이 외에 일자리에서의 AI 도입에 따른 대응책 마련도 큰 이슈다. 챗GPT를 출시한 오픈AI의 지난해 연구 결과에 따르면 노동자의 80%가 업무 일부라도 생성 AI에 영향을 받으며, 19%는 업무의 절반 이상의 영역에서 AI의 영향을 받을 것으로 예측했다. 저작권 문제도 미해결 과제다. AI를 학습시키기 위해서는 우선 방대한 양의 데이터가 필요하나, 이러한 학습을 위한 데이터들이 저작권 문제가 해결되지 않은 채 활용된 사례가 많다. AI가 만들어낸 창작물의 저작권 인정 여부에 대해서도 민간·공공·학계에서 갑론을박이 활발히 진행 중이다.

이처럼 AI를 활용하는 것에는 양면성이 존재한다. AI를 본연의 목적인 인간 편의를 위한 도구로 잘 활용하기 위해서는 치밀한 전략과 모두의 노력이 필요하다. 최근 글로벌 무대에서는 AI의 기술 촉진을 넘어서 부작용을 최소화하기 위한 다양한 움직임을 보여주고 있다. 지난해 5월 ‘제48차 G7 정상회의’에서 AI를 안전하게 활용하기 위한 글로벌 공감대 형성이 본격적으로 시작됐고, 지난 11월 28개국이 참여한 ‘제1차 AI 안전성 정상회의(AI Safety Summit)’에서 AI 안전성의 필요성과 국제공조의 중요성이 재확인됐다. 미국을 비롯한 AI 선도국들은 저마다 AI의 신뢰성·안전성을 주제로 하는 성명문을 발표하면서 전담기관을 신설하는 등 대응에 적극적인 태도를 보였다. 이에 글로벌 빅테크들도 AI가 생성한 결과물에 워터마크를 삽입하는 등의 기술적인 해결방안을 연구 중이다.

우리나라는 지난 2019년부터 ‘AI 국가전략’을 비롯해 2023년 ‘AI 윤리·신뢰성 확보 추진계획’에 이르기까지 AI 신뢰성을 확보하고 강화하기 위한 다양한 전략을 적극 추진하고 있으며, AI 안전성을 전담하는 연구기관의 설립 등을 병행·추진하는 노력을 기울이고 있다. 앞으로 AI의 활용과 확산은 점차 가속할 것이다. AI의 올바른 활용방안과 법적 효력을 갖는 제도를 조속히 만드는 것이 더욱 긴요해지는 때다.

특집 안성원.pdf
0.72MB




AI 시대, 비판적으로 읽고 현명하게 기술을 활용하는 능력이 필요하다

사람을 능가하는 언어능력을 학습한 오픈AI의 대화형 AI ‘챗GPT’의 등장에 대한 충격이 가라앉지 않고 있다. 챗GPT·제미나이·미드저니·딥엘·코파일럿 등 AI 도구가 순식간에 소설·그림·코딩·번역을 완성해 내고, 전문직 자격시험을 통과하는 사례를 보면서 불안과 공포도 확산하고 있다.

챗GPT와 같은 생성 AI에 대한 대응은 적극적인 활용과 차단, 제한적 사용 등으로 다양하게 나타나고 있다. 하지만 신기술 개발과 탐지 기술은 물고 물리는 관계이기 때문에, 긍정론과 부정론 어느 쪽도 안정적 승리를 담보할 수 없다. 공존만이 유일한 길이다.

챗GPT는 사실을 말하는 도구가 아니라
사실처럼 여겨질 만큼 자연스런 문장을 구성하는 도구

우리는 사람보다 빠르게 말하고 요약하고 정리해 내는 도구를 일찍이 만나본 적이 없다. 어떤 질문에든지 즉각 ‘모범답안’을 쏟아내는 ‘척척박사’ 도구와의 공존 방법을 알지 못했다. 더욱이 우리 사회 시스템과 일상은 ‘오직 사람만이 생각하고 정리하고 말하는 역할을 수행할 수 있다는 것’을 전제로 굴러가고 있었다.

챗GPT 환경에선 각종 시험과 글쓰기, 교육제도 영역만 혼란에 빠지는 게 아니다. 개인과 사회가 담당해 온 대부분의 영역에서 처음 겪어보는 혼란이 생기게 될 것이고, 나아가 아노미(규범부재) 현상이 일어날 우려도 있다. 따라서 대화형 AI의 특징과 장단점을 파악하고 인지해야 개인과 사회가 충격을 넘어 저 강력한 도구를 제대로 활용하고 대응할 수 있을 것이다.

챗GPT가 충격으로 다가온 이유는 사람처럼 다양한 주제에 유연하고 자연스럽게 대화하고, 무엇이든지 요약·정리를 해내는 능력이 뛰어난 도구라는 점이다. 그러나 이러한 충격은 대화형 AI에 대한 피상적이고 잘못된 이해에서 생겨났다. 무엇보다 챗GPT는 사실을 말하는 도구가 아니라 사실처럼 여겨질 만큼 자연스럽게 문장을 구성해 내는 도구다.

챗GPT는 방대한 데이터를 학습해 해당 문장과 단어가 어떠한 문맥과 의미에서 쓰였는지를 파악하는 능력을 갖추고 있어 제법 자연스러운 대화를 구성해 내는 것이지, 사실에 기반한 문장을 작성해 내는 것이 아니라는 의미다. 챗GPT의 기반 기술은 사전 훈련된 생성 트랜스포머(Generative Pre-trained Transformer)다. 트랜스포머는 문자메시지의 자동완성 기능처럼 문장에서 단어 다음에 이어질 단어와 문장을 ‘예측’하는 알고리즘이다.

또한 챗GPT는 모든 질문에 자연스러운 문장을 구사하며 막힘없이 답변하지만, 사전에 학습·훈련된 데이터를 기반으로 하고 있어 최근 상황과 정보를 반영하지 못한다. 방대한 데이터에서 답변 내용을 조합해 만들어내지만 출처와 근거를 제시하지 않아 사람이 사실 여부를 가려내기 어렵다. 황당한 거짓말을 그럴듯하게 들리도록 꾸며내는 ‘환각 현상(hallucination)’은 챗GPT와 같은 생성 AI의 기술적 특징이다.

문제는 우리가 이러한 생성 AI가 제공하는 그럴듯한 말과 이야기, 논리에 쉽게 속거나 동조하고, 혐오와 분노를 표출할 가능성이 높다는 점이다. 과거엔 누군가를 속이기 위해서 또는 작가가 소설을 쓰기 위해서는 오랜 시간과 노력을 들여 정교한 구조를 만들어야 했지만, 생성 AI 기술은 이런 비용을 0에 가깝게 만들었다. 이는 인터넷이 사실 아닌 이야기 또는 허위 정보로 넘쳐나는 공간이 될 수 있다는 것을 시사한다.

AI 리터러시 갖추지 못하면
개인별·집단별로 대립하는 불행 맞게 될 수도

대화형 AI는 사람들이 만들어낸 정보와 데이터를 학습하는 속성상 사람들의 행동과 마음을 비추는 거울 역할을 한다. 사용자의 의도에 따라 작동하기 때문에 AI를 오용·남용·악용, 즉 어뷰징(abusing)하려는 시도는 AI를 위험하고 사악한 도구로 기능하게 한다. 미국 소크생물학연구소의 컴퓨터공학자 테렌스 세즈노프스키는 “당신이 찾는 것이 무엇이든, 원하는 것이 무엇이든 AI는 그것을 제공할 것”이라고 말한다.

챗GPT와 같은 대화형 AI는 앞으로 더욱 많은 서비스에 결합해 일찍이 경험하지 못한 편리함을 제공할 것이다. 이는 AI를 이용해 데이터를 만들거나 작업을 지시하는 문턱이 낮아지는 것을 의미한다. 기존에는 해당 분야 종사자와 전문가들의 전유물이던 영역이 앞으로는 언어를 사용할 수 있는 모든 사람에게 개방되기 때문이다.

또한 챗GPT는 앞으로 AI 범용화 시대가 닥친다는 것과 함께 그 환경을 살아가기 위한 ‘필수적 능력’을 우리 모두 갖춰야 한다는 것을 알려준다. 바로 AI 기술의 특성과 장단점을 파악하고 그에 적응하는 능력이다. 챗GPT 시대엔 무엇보다 이용자의 비판적 사고와 사실 검증 능력이 요구된다. 현재의 챗GPT에 머무를 수도 없다. 앞으로 AI 기술이 발달하며 새로운 기능과 모습이 구현될 때마다 사용자에게는 그 기술을 유용하게 사용하기 위한 새로운 리터러시 능력이 요구된다.

AI 세상을 비판적으로 읽어내고 현명하게 기술을 활용할 줄 아는 능력이 ‘AI 리터러시’다. 이를 갖추지 못하면 이용자는 최신 도구를 설계하고 조작하는 소수집단에 이용당하며, 사회는 개인별·집단별로 극한으로 대립하는 불행을 맞이하게 될 수 있다. 근대 시민사회는 읽기, 쓰기, 셈하기 능력을 갖춘 근대적 시민을 길러내기 위해 공교육을 시민의 의무로 도입했다. 오늘날의 AI 시대에는 근대적 시민과 다른 새로운 능력이 모두에게 요구된다. ‘AI 리터러시’가 개인적 차원만이 아니라, 사회적 차원에서 시민들에게 이뤄져야 할 필수 역량교육인 이유다. 우리 모두가 AI 리터러시 함양과 학습에 적극적으로 나서야 할 시점이다.

특집 구본권.pdf
1.12MB




AI와 갈등하는 예술가들, 새로운 창작과 협력의 가능성을 찾아서

생성 AI는 새로운 창작 도구로서 예술의 경계를 확장하고 창작의 변화를 불러일으키며 대중에게 혜택을 제공하고 있다. 엔지니어와 작곡가가 함께 개발한 AI 음원으로 신인가수의 데뷔곡을 만들게 됐으며, 텍스트를 입력하면 이미지를 생성해 주는 AI 프로그램 미드저니가 만든 작품 ‘스페이스 오페라 극장(Théâtre D'opéra Spatial)’의 경우 미국 콜로라도 주립 박람회 미술대회의 디지털아트 부문에서 우승을 차지하기도 했다.

그러나 기존 창작물을 학습해 독창적인 이미지, 음악, 글 등을 생성하는 속성이 있는 AI 창작 방식에 대해 문화예술인들의 강력한 저항이 일고 있으며, 나아가서는 실업이나 인간 정체성에 대한 우려도 증폭하고 있는 상황이다. 또한 생성 AI의 학습 과정과 그 산출물을 둘러싼 일련의 저작권 분쟁도 발생하고 있다.

AI 창작물은 저작권을 인정받을 수 있는가?

2023년 초 이미지 플랫폼 회사 게티이미지는 이미지 생성 AI 서비스 스테이블 디퓨전의 개발사인 스태빌리티 AI를 상대로 영국과 미국에서 저작권 침해 소송을 제기했다. 게티이미지는 스태빌리티 AI가 수백만 개의 이미지와 메타데이터를 불법적으로 복제·처리해 상업적 이익을 취했다고 주장했다. 반면 AI 기업들은 수많은 데이터를 일일이 확인해 저작권을 확보하는 것이 사실상 불가능하다고 항변했다.

이 사건에서의 쟁점은 AI가 학습하는 과정에서 기존 저작물을 이용하는 행위가 ‘공정이용(fair use)’에 해당하는지와 AI 창작물이 기존 저작물과 실질적으로 유사해 저작권을 침해했는지다. 이 밖에도 미국의 160여 개의 언론 매체가 오픈AI, 구글 등을 상대로 뉴스 저작권 침해를 규탄한 사건이나 프로그래머들과 마이크로소프트의 생성 AI 서비스 코파일럿 간의 소송 등 다양한 분쟁과 쟁점이 오가고 있다.

이처럼 다양한 콘텐츠 분야에서 생성 AI 창작을 둘러싼 분쟁이 터져 나오는 가운데, 자율적 의사결정이라는 AI의 기술적 특징을 고려해 보면 창작물 생성에서 어떤 저작물이 얼마만큼 사용됐는지를 입증하기란 결코 쉬운 일이 아니다. AI는 필연적으로 기존 데이터를 사용해야 하는 만큼 문화예술계와의 갈등을 단순히 소송에 맡겨두기보다는 정부와 기업이 적극적으로 해결방안을 마련하는 노력이 필요하다.

전 세계적으로 AI 창작물을 저작권으로 보호하는 명시적 입법은 존재하지 않으나 그 보호의 필요성에 대한 논의가 각국에서 활발히 진행 중이다. 우리나라와 미국에서는 ‘인간’의 창작적 개입이 없는 AI 산출물에 대해 저작권 등록이 반려된 바 있다. 한국음악저작권협회가 2022년 가수 홍진영의 ‘사랑은 24시’를 작곡한 ‘이봄’이 AI 작곡가인 것을 인지하고 저작권료 지급을 중단한 사건이 있었다. 반면 중국 법원은 글쓰기 AI가 작성한 기사에 처음으로 저작권 보호를 인정했고, 인도와 캐나다에서는 AI가 생성한 미술작품에 대해 AI 앱을 공동저작자로 인정한 사례도 있다.

이러한 사회적 필요성에 바탕해 우리나라 국가지식재산위원회는 2020년 ‘AI-지식재산 특별전문위원회’를 설치해 ‘AI 지식재산 특별법’ 제정 방향 등에 관한 논의를 진행해 온 바 있다. AI 창작과 산업의 진흥을 위해 보호가 필요하다는 견해뿐 아니라 지식재산의 독점화와 인간 창작의 붕괴를 우려하는 견해, 구체적인 보호 방법 등 다양한 견해가 나왔었다.

저작권자·이용자·기업 간
권익 보호를 위한 철학과 제도 정립해야

AI·빅데이터를 활용한 정보분석이 보편화되고 있는 오늘날, 분석 과정에서 필연적으로 수반되는 저작물 이용에 대한 저작재산권 침해 면책 기준의 정립은 산업계의 예측 가능성을 한층 높여주는 역할을 할 것으로 보인다. 예컨대 유럽과 일본은 저작권자로부터 이용 허락을 받지 않아도 데이터에서 통계적인 규칙이나 패턴 등을 찾아내 유의미한 정보를 추출할 수 있는 이른바 ‘텍스트 데이터 마이닝(TDM)’ 관련 면책 규정을 입법한 바 있다. 우리나라는 2021년 1월 「저작권법」 개정안을 발의했으나 아직 입법에 이르지 못한 상황이다.

한편 지난 12월 문화체육관광부와 한국저작권위원회는 ‘생성형 AI 저작권 안내서’를 발간했다. 안내서는 AI 사업자가 저작물을 학습 데이터로 쓰려면 가급적 저작권자에게 적절한 보상을 제공하고 이용 권한을 확보하도록 권고하고 있다.

최근 저작권 보호를 위해 AI 기업이 자발적으로 노력하는 사례도 나오고 있다. 오픈AI는 이용자가 챗GPT를 활용하다가 저작권 침해 소송을 당하는 경우 직접 개입해 방어하고 모든 법적 비용을 지급해 AI를 걱정 없이 활용할 수 있도록 하는 방안을 발표했다. SK텔레콤·업스테이지 등 국내 기업들도 저작권 침해를 막는 기술이나 제도 도입에 나서고 있다.

생성 AI의 출현은 문화예술계뿐만 아니라 산업 전반에 커다란 변혁을 몰고 온 한편 위기감도 안겨 주고 있다. AI와의 공존은 조련치 않은 일이지만, 시대의 큰 흐름이란 점에서 AI와 동반 성장할 수 있는 자세와 지혜가 어느 때보다 중요하다. 혹자는 EU와 같은 강력한 AI 규제를 주장하기도 하나 국내 AI산업의 경쟁력을 고려하지 않는 규제의 방향은 바람직하지 않다. 지난 300년간 지속돼 온 저작권 제도의 재편이 필요한 셈이다.

특집 손승우.pdf
1.58MB




직업이 아닌 직무의 일부를 대체… 문제는 ‘생산성’이다

국내에서 일명 ‘돈나무 언니’라고 불리는 캐시 우드(Cathie Wood) 아크 인베스트먼트(ARK Investment) 대표가 올 1월 「Big Ideas 2024」 보고서를 발표했다. 보고서에는 지난 125년간 평균 3%에 머물렀던 전 세계 실질 경제성장률이 AI를 통한 지식근로자의 생산성 향상을 통해 향후 7년간 연평균 7%로 급등할 것이라는 장밋빛 전망이 담겨 있었다.

이러한 전망과는 다르게 현재까지 AI가 생산성을 높였다는 증거를 발견한 연구는 찾아보기 힘들다. 오히려 1987년에 로버트 솔로 미국 매사추세츠 공과대 교수가 컴퓨터에 적용했던 ‘생산성의 역설(productivity paradox; 높은 디지털 잠재력에도 불구하고 생산성 둔화가 지속되는 현상)’이 AI에도 적용되고 있는 것으로 나타난다. 미국의 노동생산성은 1995~2005년 기간 중 연평균 2.9% 성장했으나 2005~2022년에는 연평균 1.5% 성장에 그쳤다.

AI, 일자리를 구성하는 직무 간 보완성 높여
고용의 질 제고

AI 낙관론자들은 현재 AI 기술이 ‘생산성 J-곡선’의 최저점(생산성이 급격히 증가하기 전 초기에 떨어지는 지점) 부근에 있다고 주장한다. AI가 생산성을 높이기 위해서는 적합한 비즈니스 프로세스, AI를 능숙하게 활용하는 보완적인 인적자원, 성능 좋은 하드웨어 등이 갖춰져야 하는데 이러한 보완적인 투자가 현재 진행 중이며 향후 AI로 인한 생산성 향상 효과가 두드러질 것으로 전망하는 것이다. 반면 AI 비관론자들은 디지털 신기술의 범용성이 점점 떨어지고 있어 생산성을 높이지 못하고 있고 이러한 추세는 AI에도 적용되고 있으며, 인구구조·교육·부채·불평등 네 가지 역풍으로 인해 앞으로도 두드러진 생산성 향상을 기대하긴 어려울 것이라고 주장한다.

그동안 도입된 범용기술은 생산성을 높여왔으며, 궁극적으로 일자리의 숫자를 줄이지 않았고 일자리의 직무 구성을 바꾸며 신산업, 신직종을 창출했다. 이번에는 과연 다를까?

고학력자, 고임금 근로자를 대체할 수 있는 생성 AI의 급속한 확산은 탈숙련화 관련 우려를 증폭하며 미래 일자리에 대한 비관적인 전망으로 연결되고 있다. 올해 세계경제포럼에서는 AI로 인해 향후 5년 동안 전 세계적으로 전체 고용의 2%에 해당하는 1,400만 개의 순 일자리가 사라질 것으로 전망했고, 골드만 삭스의 보고서는 생성 AI로 인해 EU와 미국에서 3억 개의 일자리가 증발할 수 있다고 지적했다. 또 IMF는 전 세계 일자리의 40%가 AI에 노출돼 있다고 분석했다.

‘AI의 대부’로 불리는 제프리 힌턴 캐나다 토론토대 교수는 심화학습한 AI가 영상의학자를 5년 안에 대체할 것이라고 2016년에 예측한 바 있다. 그러나 2021년 기준으로 영상의학자는 오히려 부족한 것으로 나타난다. AI의 보급은 영상의학자라는 직업을 대체하지 않고 영상의학자의 일부 직무를 대체했다. 다시 말해 AI의 확산은 일자리를 대체해 고용을 줄이기보다 특정한 일자리가 수행하는 여러 가지 직무 중 일부만을 AI가 대체하게 되는 것으로, 일자리를 구성하는 직무 간의 보완성을 높여 고용의 질을 제고하는 효과를 불러오게 되는 것이다.

인간의 능력을 높이는 수단으로 발전해야

생성 AI가 고용에 미치는 효과에 대한 일련의 연구들에서는 AI 노출도가 높은 직업과 낮은 직업을 비교·분석해 AI로 인해 대체될 일자리의 규모를 추정하고 있다. 예를 들어 최근 한국은행은 AI 노출도가 높아 대체될 수 있는 국내 일자리의 규모를 341만 개(전체 일자리의 12%)로 추정했다.

그러나 모든 연구가 AI 노출도가 높은 직종의 고용과 임금이 전반적으로 감소한다는 가설을 지지하는 것은 아니다. 직종 내 업무를 AI가 수행하는 업무와 사람이 수행하는 업무로 재구성해 서로 보완할 수 있도록 도와주는 경우에는 AI 노출도가 높은 직종의 임금이 올라가거나 고용안정성이 높아진다는 연구들도 나오고 있다.

향후 모든 직종에서 AI 노출도는 상승할 것이다. 현재는 생성 AI의 확산으로 화이트칼라 직종의 노출도가 올라가고 있지만, 생산업에서 AI 로봇 등이 보편화되면 블루칼라 직종의 노출도도 커질 것이다. AI가 과거의 범용기술처럼 생산성을 높이고 일자리를 줄이지 않으며 고임금을 견인하려면 인간의 능력을 대체하는 것이 아닌 증폭 혹은 증강하는 방향이어야 한다.

이를 위해서는 AI를 능숙하게 활용하는 사용자의 능력이 필요조건이 될 것이다. 또한 인간과 유사한 AI를 개발하는 데 집중한 까닭에 AI가 인간의 능력을 높이는 수단으로 발전하지 못하고 있는 상황을 의미하는 ‘튜링의 함정’에서 벗어날 유인을 정책적으로 제공할 필요도 있다.

계속 하락하고 있는 출산율과 높은 고령화로 인해 노동인구가 부족해지는, 구조적으로 ‘견고한’ 노동시장(structurally tight labor market)이 예상되는 한국의 경우 AI의 높은 노출도에 따른 대체효과를 크게 우려할 필요가 없을 것으로 보인다. 대체효과가 크게 나타나더라도 오히려 향후 인력부족률을 낮추는 긍정적 효과를 가져올 수 있어 일자리보다는 생산성을 고려해 AI의 도입을 가속해야 할 것이다.

특집 고상원.pdf
1.70MB




“기술개발을 넘어서 난제 해결, 비즈니스 창출 등 생태계 키우는 방향으로”

이번 기획으로 생성 AI와 친해질 기회가 생겼다. 인터뷰를 준비하며 대화형 AI에 ‘AI 기술과 서비스를 개발하는 기업의 연구자를 만나 기술의 방향과 기업의 역할, 생태계 경쟁력을 주제로 인터뷰할 거야. 어떤 질문을 하면 좋을까?’라 물었더니, 미처 생각지 못한 좋은 질문들을 보여준다. 반나절 동안 브레인스토밍해 뽑았을 질문을 AI는 불과 몇 초 만에 끝낸다. 녹취록을 맡겼더니 요약과 핵심 키워드도 제공해 준다. 인터뷰에서 하정우 네이버 퓨처 AI 센터장은 다가올 미래는 “AI가 세상을 바꾸는 게 아니라 AI와 함께 사는 세상이 될것”이라고 말했다. AI와 함께하는 미래는 어떨까?

AI는 어떤 방향으로 발전해 왔나?
처음엔 사람의 지능을 모사하는 방향으로 개발됐다. 2010년대에 딥러닝 기술이 주목받으며 번역기, 안면·음성 인식처럼 특정 문제를 푸는 데 수준 높은 성능을 보여주기 시작해 비즈니스 영역이 열렸고, 이후 GPT-3를 필두로 생성 AI가 등장했다. 이 AI에 수조 개에 달하는 초거대 규모의 데이터와 학습·연산 스케일이 붙어 오늘날 수준으로까지 올라왔다.

초거대 생성 AI의 기술적 특징은 무엇인가?
예를 들면 예전엔 동네의 포장 가능한 특정 메뉴의 맛집을 검색하려면 네이버 예약, 지도 등 여러 앱에 들어가 일일이 검색하고 찾았지만 이젠 원하는 조건에 맞는 정보를 한 번에 확인할 수 있다. AI가 맛집 정보를 스스로 만들면 환각 현상이 생길 수 있는데, 그게 아니라 외부 앱이나 서비스를 끌어와 매개체 역할을 하며 사용자가 원하는 기능을 대신 실행해 정보를 제공한다.

일자리가 AI로 대체될 것이라는 전망이 있다.
AI는 일자리 전체를 대체한다기보다 부분을 대체해 일하는 방식을 바꿀 것이다. 가령 보고서를 쓸 때 프레임워크를 짜고, 주제를 정하고, 자료를 검색·분석·요약해서 초안을 작성하고, 표·그래프를 넣고, 전체 내용을 검증하는 일련의 과정에는 AI로 자동화할 수 있는, 사람만이 할 수 있는, 사람이 주로 하지만 AI 도움으로 처리할 수 있는 부분이 분명 있을 것이다. AI를 어디에, 어떻게 활용하느냐에 따라 생산성과 능률이 달라진다.

AI를 잘 활용하려면 무엇이 중요할까?
어떤 AI로 어떤 프롬프트(명령어)를 입력해야 양질의 결과물이 나오는지 알려면 일단 많이 써봐야 한다. 시간이 지나면 입력을 부실하게 해도 양질의 결과를 얻는 때가 올 테지만 지금은 AI를 정확하게 부릴 수 있는 프롬프트 엔지니어링 능력이 중요하다. 또 AI는 아직 정성적이고 복잡한 과정이 섞여 있는 문제를 한 번에 해결 못하기 때문에 문제를 쪼개서 정의, 변환, 가공하는 능력에 따라 AI를 활용한 결과물의 품질이 달라질 것이다.

센터장님이 AI에 처음으로 한 질문은?
2021년 2월 라인에 네이버의 첫 생성 AI인 하이퍼클로바를 봇으로 붙여 거대언어모델(LLM)을 설명해 보라고 물었다. 답도 충실하고 대화가 매끄러워 ‘참 물건이구나’ 싶었다. 하이퍼클로바 출시 전 이 대화를 캡처해 SNS에 올렸더니 반응이 뜨거웠다. 당시 GPT-3는 한국어를 지원하지 않았고 그간 국내는 생성 AI에 회의적인 입장이었는데, 이 대화를 본 관련 업계들이 시장 가능성을 확신해 뛰어들기 시작했다고 한다.

네이버는 왜 AI에 뛰어들게 됐나.
GPT-3 출시 후 한 달 정도 써보고, 향후 검색을 포함한 테크 플랫폼의 핵심 기반이 생성 AI로 넘어갈 것으로 판단했다. 기술이 없으면 외산 기술에 종속돼 비즈니스 근간이 흔들릴 것이란 판단하에 초기투자 금액이 상당함에도 뛰어들게 됐다. 우리 서비스 대부분이 글쓰는 것과 연관돼 있어 생성 AI에 더 주목한 것도 있다.

네이버의 기술 경쟁력은 어느 정도인가?
기술 수준에선 미국 실리콘밸리 기업, 중국 기업 다음으로 네이버다. 대한민국 원톱이란 소리다(웃음). 중요한 건 AI가 기술에만 머무는 것이 아니라 난제를 해결하거나 비즈니스를 창출해 생태계를 키우는 지속 가능한 방향으로 가야 한다는 것이다. 네이버는 200여 개의 사용자 서비스와 여러 분야의 기업, 정부기관 등 1,500여 개의 다양한 파트너사를 갖고 있는데 우리 AI 기술을 적용해 비즈니스 서비스를 만든 경험이 많다. 미국의 오픈AI도 이 정도 경험은 없다. 또 네이버 플랫폼에 축적된 양질의 데이터 덕에 초거대 생성 AI 기반을 갖춘 것도 기술 경쟁력 확보에 한몫했다.

서비스를 보다 많은 사람이 이용하도록 장벽을 낮추는 것도 기업의 역할일까.
그렇다. 학생의 경우 일상, 창업, AI 융합 등 여러 아이디어를 AI로 구현하는 교육을 제공해 다른 기관에 사용 경험을 공유하도록 했다. 스타트업에는 하이퍼클로바X 출시 전 먼저 써볼 수 있도록 해 비즈니스 모델을 만드는 기술 지원을 했다. 또 대학교수에게 전공·교양 AI 과목에 쓸 수 있는 교재를 제공하거나 공무원 대상으로 정부에 특화된 AI 리터러시 교육도 진행한다. 앞으론 정부가 적극적으로 나서서 다양한 창구를 통해 국민의 리터러시를 높여야 한다. 그렇게 해야 사람 간, 지역 간, 국가 간의 AI 격차도 해결할 수 있다.

언급한 AI 격차 해소는 앞으로 더 중요할 것 같다.
지난해 영국에서 열린 ‘AI 안전성 정상회의’에서도 선진국에서 만든 기술을 개도국이 쉽고 효과적으로 활용할 수 있는 방법을 고안해 국가 간 격차를 줄여야 한다는 의견이 나왔다. 디지털플랫폼정부위원회에서도 개도국이 공공 영역에서 활용할 수 있는 서비스나 앱을 공적개발원조(ODA) 형태로 지원하는 것을 논의하고 있다. 이 이니셔티브를 통해 글로벌 리더십을 획득할 수 있을 뿐 아니라 국가 성장에도 도움을 주게 되고, 기업의 해외 진출 발판도 마련할 수 있을 것이다. 1타 3피다(웃음).

안전성 우려에선 기업은 어떤 노력을 하나?
AI의 지속가능성에 안전성은 필수 고려 대상이다. 네이버는 2021년에 AI 윤리 준칙을 만들었고 올 초엔 국내 최초로 AI 안전성 연구를 전담하는 퓨처 AI 센터를 만들었다. 기술과 안전성의 균형을 맞출 연구개발과 위험관리 가이드라인 구축은 물론 AI 반도체 기술개발에도 힘쓴다. 이 외에도 정책, 철학, 미디어, 법 등에서 AI의 방향을 수립하고, 국내외 움직임에 대응하거나 국제공조에 참여하는 등 다양한 노력을 한다.

AI 생태계의 일원으로 국내 생태계를 평가한다면.
투자, 혁신, 실행수준을 평가하는 글로벌 AI 지수에서 우리나라가 지난해 6위를 차지했다. 개발, 정책 부문은 뛰어나나 인재, 상용화가 부족한 것으로 평가됐다. 무엇보다 우리의 문제는 기술을 만들면 산업으로 확장되기 위해 뚫어야 할 벽이 두껍다는 것이다. 산업이 가치사슬을 만들어 그것이 다시 인입되는 환류 구조를 통해 자가발전이 가능한 생태계로 발전해야 하는데, 가치사슬을 만드는 마지막 단계가 경직돼 있다.

생태계 주도권을 확보하려면 무엇이 필요할까?
산업 측면에서 생성 AI의 강점을 녹여낼 영역을 찾아야 한다. 기술 리더십 확보도 필요하다. 글로벌 빅테크가 만든 생성 AI는 학습 데이터의 90%가 북미 자료라 편향돼 있다. 자국 문화를 잘 이해하는 AI를 만들고 싶으나 기술·인재가 부족한 아세안, 이슬람 문화권 등에 우리의 기술로 문화 다양성을 충족하는 생성 AI를 제공해 신뢰할 수 있는 글로벌 파트너로 자리매김해야 한다.

마지막으로, 네이버는 어떤 AI를 만들 계획인가?
경제·사회 인프라 구축에 필요한 기술을 개발해 외산 기술에 종속되지 않도록 하면서 개도국에 필요한 기술을 지원하는 좋은 글로벌 파트너 역할을 하려고 한다. 기후위기, 인구감소 등 사회적 난제를 푸는 데도 기여해 국가의 성장엔진이 될 것이다. 꿈을 이루려면 무엇보다 네이버 스스로의 노력과 성장이 가장 중요하겠다.

특집_하정우.pdf
0.60MB



https://eiec.kdi.re.kr/publish/naraList.do?fcode=00002000040000100001&sel_year=2024&sel_month=03


Comments