DDOLKONG
AI 데이터 우물에 ‘독’ 푸는 교수…“저작물 도둑질, 창작자 삶 뺏어” 본문
[AI의 습격 인간의 반격]
벤 자오 시카고대 교수 인터뷰
벤 자오 시카고대 교수는 ‘돈 몰리는’ 인공지능 분야의 석학인데다 타임지 선정 ‘2023년 최고의 발명품’으로 선정된 연구를 진행하고 있지만, 그를 지원하고 싶어 하는 인공지능 기업은 없다. 미국 예일대와 버클리대에서 컴퓨터과학 학위를 받던 20년 전, 구글이 제프 딘(현 구글 인공지능 총괄)과 함께 일해달라며 제안했던 주식은 현재 가치로 치면 2천만달러(267억원) 수준에 이른다. “학계를 선택했고 후회한 적 없다”는 그는 최근 생성형 인공지능의 ‘데이터 도둑질’을 막는 도구를 개발했다.
지난 1월19일 자오 교수 연구팀이 정식으로 발표한 ‘나이트셰이드(Nightshade) 1.0’은 한마디로 ‘생성형 인공지능을 파괴하는 독극물’이다. 특별한 홍보가 없었는데도 출시 5일 만에 25만명이 내려받은 이 소프트웨어의 규칙은 “이것을 사용한다는 사실을 세상에 알리지 말라”이다. 이 프로그램은 제작자 동의 없이 창작물을 긁어가 인공지능 모델을 학습시키는 행태에 문제의식을 가진 자오 교수가 자신의 작품을 지키려는 창작자들의 편에 서서 만든 것이다. 이 소프트웨어가 적용된 창작물을 생성형 인공지능이 함부로 학습하면 이미지가 엉망으로 변해버려, 개를 고양이로, 자동차를 소로 인식하게 된다.
자오 교수는 지난달 14일 한겨레와의 화상 인터뷰를 통해 “현재와 같은 거대 생성형 인공지능 모델은 붉은 청어(Red Herring)”라고 비판했다. 사냥개의 주의를 돌리기 위해 강한 냄새가 나는 훈제 청어를 쓰듯 “거대한 데이터를 학습한 생성형 인공지능이 인류를 위한 것이라는 말은 과대광고와 마케팅의 탐욕을 숨기기 위한 속임수일 뿐”이라는 취지다.
―생성형 인공지능 모델에 왜, 어떻게 ‘독’을 퍼뜨리나?
“자신의 작품을 허가 없이 가져다가 인공지능을 훈련하는 기업들을 상대로 소송에 나선 카를라 오르티스 등 예술가들을 만난 뒤 이러한 ‘도둑질’을 막는 프로그램 개발에 착수했다. 지난해 글레이즈(Glaze)를, 올해 나이트셰이드 1.0을 발표했다. 지난해 말 타임지가 최고의 발명품으로 선정하기도 한 글레이즈에 작품을 올리면, 우리 눈에는 그림이 그대로 보이지만 그걸 학습한 인공지능 모델은 전혀 다른 그림으로 읽어들이게 된다. 나이트셰이드를 적용하면 인공지능 학습 때 이미지가 손상돼, 개가 고양이가 되고, 자동차가 소가 된다.”
―인공지능 기업들의 반발은 없었나?
“어떤 기업도 대응하지 않고 있다. 우리에게 항의하면 자신들이 법적으로 문제 있는 행동을 하고 있다는 것을 인정하는 꼴이 되기 때문이라고 본다.”
―오염된 데이터만 지우면 되는 일 아닌가?
“오염된 그림들만 제거하기는 매우 어렵다. 인공지능 모델이 파괴된다. 빅테크 기업들은 인터넷 등에서 수억장의 이미지를 빨아들이는데 이미지당 1초씩만 검토한다 해도 처리장치(GPU)를 어마어마하게 사용하게 된다. 나이트셰이드 때문에 훈련 비용이 비싸져 기업들이 업무 방식을 바꾸길 바란다.”
―기업들은 생성형 인공지능으로 수익이 발생하면 창작자 등에게 분배할 수도 있다고 한다.
“일단 너의 것을 훔쳐가서 너를 노숙자로 만든 뒤 내가 돈을 벌게 되면 나중에 줄지도 모른다는 이상한 논리다. 시간이 지나 현재의 논쟁을 돌아보면 웃을 것이다. 하지만 당장 오늘과 내일, 올해와 내년에 일자리를 잃는 사람들이 발생할 것이니 소송이나 규제 결과를 기다리기에는 시간이 없다. 나는 창작자들의 고통을 줄이고, 자신의 삶과 작업이 도난당해 불안과 우울을 느끼는 이들을 돕고 싶다.”
―새로운 일자리가 나타날 것이라는 기대도 있다.
“많은 사람들이 순진하다는 사실이 슬프다. 당장 자신의 직업이 영향받지 않을 것이라고 생각하는 사람들은 ‘생성형 인공지능의 생산성이 대단하다’고 말한다. 많은 일을 훨씬 더 빠르게 할 수 있게 되는 것은 맞다. 하지만 업무가 줄어든다고 당신의 상사가 당신을 쉬게 하진 않을 것이다. 줄어든 동료의 몫까지 더 많이, 더 빠르게 일하게 될 것이다.”
―왜 생성형 인공지능을 과도한 마케팅일 뿐이라고 하나?
“현재와 같은 거대한 생성형 인공지능 모델은 ‘붉은 청어’와 같다. 인류가 더 중요한 질문에 집중하지 못하도록 우리의 주의를 산만하게 하기 때문이다. 엄청난 투자가 몰리고 주가가 뛰고 있지만, 인공지능 기업들은 오히려 돈을 잃고 있다. 과대광고와 마케팅 문구에 휘둘려 모두들 ‘생성형 인공지능이 국가 경제를 일으킬 것’이라고 말하지만, 수백만개의 일자리를 없애는 방법으로 경제 상황을 개선하는 나라는 없다.”
―어떤 직업이 먼저 타격받나?
“생성형 인공지능으로 대부분의 일자리가 사라질 텐데, 첫번째로 타격을 받을 이들은 예술가, 작가, 기자, 배우, 성우 등 창작 그룹과 콘텐츠를 생성하는 그룹이 될 것이다.”
―당신도 인공지능 기술 분야 학자다. 생성형 인공지능은 혁명적 발전이 아닌가?
“지금 우리가 열광하고 있는 생성형 인공지능은 인공지능의 일부일 뿐이며, 인류를 위한 기술을 개발하던 과학자들을 좌절하게 하고 있다. 햄버거 가게에 간 손님이 햄버거에 피클을 더 넣고 양파는 빼달라고 한 뒤 그걸 들고나와 자신이 훌륭한 요리를 했다고 말하는 만화가 있다. 생성형 인공지능 기업들은 이미 다른 예술가들이 노력해 만든 결과물들을 모아서 ‘나를 봐라, 나는 천재다’라고 말한다. 이건 인류의 자존감에 관한 문제다.”
―생성형 인공지능 대표 주자 챗지피티(ChatGPT)를 만든 오픈에이아이(OpenAI)는 인공지능에 대한 우려에서 탄생한 연구소다.
“이제 샘 올트먼 오픈에이아이 대표는 ‘인간의 능력을 넘어서는 ‘범용 인공지능’(AGI, Artificial General Intelligence)이 우리를 파멸시킬 끔찍한 문제’라고 말하면서 올바른 결과를 가져올 수 있도록 자신들에게 투자해달라고 말한다. 그런데 에이지아이가 인류를 사라지게 할 거라면 이것을 시도하는 것 자체가 말이 안 된다. 오픈에이아이는 일단 에이지아이를 도입한 뒤 다시 이를 제어하겠다는 것인데, 이것은 매우 산만한 논리이며, 이 역시 ‘붉은 청어’라 생각한다.”
―에이지아이를 어떻게 이해해야 하나?
“범용 인공지능은 인간보다 더 똑똑해지고, 언젠가는 인간보다 더 강력해질 것이란 구상에 바탕을 둔다. 인간보다 강력해져 세계를 통제하는 에이지아이의 아이디어는 오랫동안 존재해왔다. 오픈에이아이는 면접을 할 때 에이지아이의 미래를 진심으로 믿고 있는지를 중요하게 본다고 한다. 만일 에이지아이가 도래하도록 할 것이라면, 그것은 인류에게 좋은 일이어야 하며, 사람들을 고통스럽게 하는 방식이어서는 안 된다.”
―인공지능 기업마다 윤리 기준을 세운다고 말한다.
“현재 생성형 인공지능 발전은 기업이 주도한다. 기업은 이윤을 추구하고, 윤리적으로 올바르게 행동해야 할 인센티브는 없다. 생성형 인공지능 업계에는 마케팅이 과도하고, 돈이 너무 많이 몰리고, 주식 시장과 크게 연관돼 있다. 이 모든 과도함이 기업들로 하여금 나쁜 일을 하게 하고 있다. 얼마 전 메타에 내 개인정보를 인공지능 모델 훈련에서 빼달라는 요청을 해봤는데, 메타로부터 그 사실을 내가 입증하지 않는 한 요청을 처리할 수 없다는 답변을 받았다. 개인이 기업을 막기란 어렵다.”
―투자가 몰리고 주가는 오른다.
“현재는 생성형 인공지능에 투자를 한 사람들의 목소리가 크다. 그들이 미국 저작권청을 향해, 인공지능 회사에 너무 많은 돈을 투자했기 때문에 저작권법을 바꿔 이를 뒷받침해주지 않으면 우리가 돈을 잃게 될 것이라 주장한다. 도덕이나 윤리에 관한 이야기는 없고, 이 산업이 피해를 입으면 너무 많은 돈을 잃는다는 논리뿐이다. 많은 기업이 경제학을 이해하지도, 개인의 처지에 관심을 두지도 않는다는 사실에 놀란다. 마이크로소프트·구글·메타 등 인공지능 기업들은 단기적으로 주가가 계속 오르니 승리했다고, 업계의 리더라고 간주된다.”
―어떻게 대응해야 할까?
“국제 규제로 대응할 수밖에 없다. 얼마 전 생성형 인공지능 통제를 위한 법률 마련을 위해 일리노이주 정부에 가서 증언했다. 전세계적으로 이러한 규제 움직임이 있고, 뉴욕타임스처럼 생성형 인공지능 기업을 향한 소송도 이어지고 있다. 변화가 올 것이라 생각한다. 하지만 법률시스템 변화는 느리다. 그렇기 때문에 나는 내 자리에서 할 수 있는 연구를 한 것이다.”
https://n.news.naver.com/article/028/0002676932