생성형 인공지능과 사회적 책임

 

 

 

 

 

 

“인공지능”이라는 개념은 이미 1950년도에 제안됐지만, 첫 60년동안 현실에서는 존재하지 않았던 기술이다. 2010년도 인간의 뇌를 모방한 “심층학습(Deep Learning)”이라는 기술이 도입되며 드디어 인류는 세상을 알아보는 기계를 가지게 되었고, 지난 10년동안 얼굴인식과 자율주행 같은 분야에 적용된 인공지능을 우리는 “인식형 인공지능”이라고 부르기 시작했다. 하지만 지난 10년동안 해결되지 못했던 문제가 하나 있었다. 바로 “자연어처리”였다. 그런데 2017년 구글사가 “트랜스포머(transformer)”라는 알고리즘을 개발한 이후 상황이 빠르게 달라지기 시작한다. 트랜스포머 알고리즘을 활용한 “초거대 언어모델”(Large Language Model, LLM)들은 질문을 입력하면 완벽한 문법, 논리적인 문맥, 그리고 의미 있는 내용의 문장을 만들어낼 수 있다. 비슷한 모델을 사용해 문장과 그림, 그리고 문장과 동영상의 확률관계를 학습시키면, 기계는 새로운 그림과 동영상을 만들어낼 수 있다.
이미 있었던 것들만 알아보고 구별하는 “인식형 인공지능”과는 다르게 없었던 것을 만들어낼 수 있는 생성형 인공지능의 사회, 경제, 정치적 영향은 그렇다면 과연 무엇일까? 크게 4가지 영향을 상상해볼 수 있겠다. 우선 생성형 인공지능이 보편화된 미래는 참과 진실의 차이를 구별하기 어려운 사회가 될 수 있다. 생성형 인공지능을 사용하면 진짜와 구별하기 불가능한 가짜 기사와 사진과 영상을 대량생산 할 수 있다. 물론 참과 진실 역시 대량생산 해볼 수 있겠지만, 참과 진실은 언제나 하나라는 문제를 가지고 있다. 동일한 정보를 대량생산하면 지루함과 따분함을 유도하지만, 거짓은 대량생산될 수록 다양성과 흥미로움이 늘어난다. 챗GPT를 개발한 OpenAI사 CEO 샘 얼트만이 내년 미국 대선 결과가 처음으로 유권자가 아닌 생성형 인공지능 알고리즘을 통해 결정될 수 있다고 경고한 이유다. 미래만이 아니다. 모든 기록이 디지털화된 미래에는 생성형 인공지능 기술로 무장한 독재국가가 기존 기록을 언제나 새로운 “과거” 기록으로 대체할 수 있겠다. 과거를 최대한 보존하고 기억하려던 시대를 넘어, 과거를 언제든지 “업데이트”할 수 있는 역사 2.0 시대가 이제 막 시작되고 있는지도 모른다는 말이다.
두번째, 대부분 지적노동이 생성형 인공지능을 통해 대량생산 될 수 있다면 작가, 디자이너, 아티스트 만이 아닌 개발자, 엔지니어, 변호사, 그리고 교수라는 직업 역시 위험해질 수 있다. 물론 산업혁명의 역사는 언제나 기존 직업들이 사라지고 새로운 직업이 만들어진 역사이기도 하다. 하지만 이번만은 다르지 않을까? 과거 산업혁명은 인간과 동물의 육체적 노동력을 기계로 대체하는 과정이었다. 기계에게 육체적 노동을 넘겨준 인류는 이제 대부분 지적노동력을 기반으로 하는 직업을 가지고 있다. 하지만 만약 지적노동력 역시 대량생산되기 시작한다면 미래인류는 무엇을 할 수 있을까? 육체적 노동과 지적노동 외에 인류가 할 수 있는 게 과연 무엇이 있을까? 생성형 인공지능은 국제질서와 사회안전에도 큰 위험을 가져다 줄 수 있다. 이세상 모든 정보를 가지고 있는 생성형 인공지능. 범죄자, 테러단, 그리고 불량국가들은 이런 지식을 어떻게 악용할까? 작년 11월 챗GPT가 처음 소개된 후 입력된 질문 몇개로 새로운 바이러스 개발과 핵무기 디자인 방법 같은 위험한 지식 역시 챗GPT가 알려줄 수 있다는 사실이 발견돼 큰 문제가 되기도 했다. 물론 위험한 지식을 검열하고 차단할 수는 있지만, 모든 지식을 막을 수 있는 방법은 비현실적이다. 이런 관점에서 생성형 인공지능을 핵무기 개발기술과 비교하는 전문가들이 많다. 하지만 핵무기 개발은 지식이 있어도 실천하는 것은 쉽지 않다. 일반인들은 접근하기 어려운 장비와 소재들이 절대적으로 필요하기 때문이다. 그러나 생성형 인공지능은 다른다. 지식과 컴퓨터만 있으면 누구나 쉽게 실천할 수 있다는 큰 차이점이 있다. 일자리가 사라지는 세상, 참과 거짓의 차이가 허물어지는 미래, 역사가 매번 새로 업데이트될 수 있는 미래… 하지만 생성형 인공지능의 가장 치명적인 리스크는 어쩌면 이 기술이 인류멸망의 시작점이 될 수도 있다는 가능성이다. 유발 하라리가 최근 주장했듯, 현대문명의 “운영체제”는 언어를 기반으로 한다. 인간의 언어를 이해하는 순간 인간이 할 수 있는 모든 것들을 기계도 할 수 있다는 잠재적 가능성을 의미한다. 더구나 우리는 사실 챗GPT에게 문법과 논리적 사고를 가르쳐준 적이 없다. 단순히 다음 단어를 예측하도록 학습된 기계의 크기가 수 천억 단위를 넘으며 뜻밖의 “창발적” 능력을 보여주고 있는 것이다. 그렇다면 만약 기계가 우리의 의도와는 상관없이 “자율성”과 “생존본능”까지 학습한다면? 지구 역사상 언제나 더 뛰어난 종의 등장은 다른 종들의 멸종과 노예화를 의미했었다. 호모 사피엔스의 등장이 네안데르탈인에게 멸종을 가져다 주었듯, 생성형 인공지능에서 “범용적 인공지능AGI”으로 진화한 기계의 등장은 호모 사피엔스의 멸종을 의미하지 않을까?
우리 인간의 상상력은 그다지 뛰어나지 않다. 특히 아무도 경험해보지 못한 걸 상상하는 건 사실 거이 불가능하다. 인간의 언어를 이해하는 기계, 새로운 것을 생성하고 창작할 수 있는 기계. 30만년 호모 사피엔스 역사 중 그런 기계를 경험할 수 있었던 시기는 지난 몇 개월에 불가하다. 아무도 경험해보지 못했기에 그 누구도 정답을 알지 못한다. 생성형 인공지능 시대의 변화와 리스크, 그리고 사회적 책임 모두 우리가 직접 상상하고, 준비해야할 피할 수 없는 지금 이 시대를 살고 있는 우리의 숙명적인 숙제라는 말이다.

 

출처 : 기업시민리서치 18호