(사)기독교세계관학술동역회 기관지
ChatGPT가 장안의 화제다. 채팅창 같은 박스 안에 말을 건네거나 질문을 던지면 곧바로 대답이 나오는데, 삼행시 짓기부터 보고서 작성, 문단 요약까지 척척이다. 물론 맥락이 닿지 않는 엉터리 대답도 나오지만, 뭐니뭐니 해도 가장 인상적인 것은 그 유려한 언어 실력이다. 사람이 썼는지 기계가 썼는지 알기 힘들 정도로 정교하고 내용도 명료하다. 2016년 확실한 규칙이 있는 바둑에서 사람을 이긴 알파고에도 놀랐지만, 사람마다 조금씩 달리 말하는 일상어를 기계가 제대로 이해하고 적절히 대답하는 것은 과거의 상상을 초월하는 일이다. ChatGPT가 생각을 하는 게 아닐까 하는 물음까지 나오는 이유도 여기에 있다. 사람의 생각은 결국 언어로 이루어지기 때문이다.
필요한 내용과 상황에 대한 몇 가지 조건을 입력하면 인사말, 보고서 초안, 예배 설교 등을 금방 생성하는데, 제시된 내용을 적절하게 수정하면 꽤 높은 수준의 글을 빠른 시간 안에 만들 수 있다. 또 사용자의 이런저런 요구사항에 대한 대답 중에는 사용자가 생각하지 못했던 참신한 내용이 나오기도 한다. 이 모든 것이 지식, 정보의 활용이나 문서 작업의 속도와 직결되기 때문에, 많은 일자리가 사라질 수 있다는 우려는 꽤 현실적이다. 이렇게 빠른 기술발전의 박자에 적응하는 것도 중요한 숙제지만, 인공지능의 성능과 발전 속도에 압도된 나머지 그 새로운 가능성에만 집중하는 우를 범해서는 안된다. 신기술의 여러 측면을 종합적으로 파악하려는 노력을 기울여야 기술발전의 방향을 모두에게 가장 유익한 방향으로 설정하고 견인할 수 있다.
무엇보다 GPT를 포함한 모든 기술이 시장의 원리에 따라 개발된다는 점을 기억해야 한다. 이는 기술발전이 수요와 공급에 의한 것이니 어쩔 수 없다는 의미가 아니라 그것이 누군가의 이익과 손해로 이어진다는 말이다. 그 이익과 손해를 잘 계산하면 주어진 기술발전의 가치와 의미를 파악할 수 있게 된다. 이런 문제의식을 가지고 자주 거론되지 않는 ChatGPT의 몇몇 이면을 살펴보도록 하자.
우선 인공지능과 ChatGPT가 정상적으로 작동하기 위해 눈에 보이지 않는 사람의 노동이 상시 필요하다. ChatGPT와 같은 일상어 인공지능의 경우, 인터넷 공간에 있는 엄청난 양의 텍스트를 모아 말뭉치로 만들어 학습하는데, 이때 부적절한 성적 표현이나 폭력적인 언어가 학습되면 곤란하다. ChatGPT가 이상한 말을 하지 않게 하려면 미리 온갖 부적절한 표현들을 읽고 걸러내는 사람이 있어야 한다. 인공지능이 ‘안전하게’ 작동하게 하기 위한 이런 노동은 노동권이 보장되지 않는 열악한 지역을 중심으로 하여 저임금으로 이루어지는데, 잘 알려지지 않은 이 사람들을 ‘유령노동자’(ghost worker)라고 부르기도 한다.
ChatGPT와 같은 언어모델을 훈련하기 위해서 엄청난 에너지가 들어간다는 것도 기억해 둘 만한 일이다. 여러 대기업이 너도나도 대규모 언어모델을 개발하는 일에 뛰어들면서 많은 양의 말뭉치를 더 복잡한 심층신경망으로 처리하는데, 이 모든 과정에 에너지가 필요하다. ChatGPT를 학습시키기 위해서는 많은 에너지를 소모할 뿐 아니라 개발 후에도 사용자가 한 번 물음을 던지고 답을 얻는 과정에서 소비하는 전기가 구글 검색엔진보다 5~6배 많다는 이야기가 있다.
저작권 문제도 있다. 특정 주제에 대한 ChatGPT의 답은 그 분야의 전문가가 만든 자료나 그런 자료의 조합일 가능성이 높다. 검색엔진은 사용자가 그 자료를 직접 볼 수 있게 해주지만 ChatGPT는 완성된 답을 주기 때문에 사용자는 그 정보의 출처를 알기 힘들고, 그 대답이 여러 자료의 조합인 경우 인공지능이 그 출처를 명시하기도 쉽지 않다. 확실한 것은 ChatGPT가 간접적인 방식으로라도 남의 지식을 이용할 수밖에 없고, 이를 저작권 침해로 볼 여지가 있다는 점이다. 그래서 최근 독일의 작가와 공연예술가 단체는 생성형 인공지능의 저작권 침해를 더 강하게 규율할 것을 요구하는 서한을 유럽연합(EU) 집행부 등에 보냈다고 한다.
ChatGPT와 관련해서 생각해 보아야 할 또 다른 지점은 바로 이 기술의 교육적 영향이다. 이미 대학생이 ChatGPT를 이용해서 과제를 작성하는 문제에 대한 논의가 일어나고 있다. 그러나 이보다 더 심각한 문제는 장차 사람들이 스스로 생각하고 아이디어를 낼 필요가 없어지는 상황이다. 이미 지식을 축적한 기성세대는 ChatGPT의 대답을 평가하거나 그 수준에 감탄할 수 있지만, 어릴 때부터 이런 기술로 공부한 사람은 인공지능의 대답에 전적으로 의존하게 될 것이다. 이렇게 되면 인공지능을 설계하고 운용하는 소수와 그렇지 못한 다수 사이에 불평등한 권력 구조가 생길 수 있다.
이렇듯 ChatGPT가 작동하기 위해서는 노동과 에너지가 필요하고, 그 작동을 통해서는 이해관계가 갈리며, 장기적으로는 사람의 근본적인 능력에 손상이 갈 수도 있다. 그래서 어쩌란 말인가? 일단은 이런 관찰과 숙고에서 시작하면 된다. 인공지능이 초래한 일차적 변화에만 집중하는 대신 “기술이 진공상태에서 생겨나지 않는다”라는 상식으로 돌아가자. ChatGPT의 기능이 구현되는 기본 구조와 작동 방식을 파악하면 개발자들이 굳이 알리고 싶어하지 않는 사실을 알게 되기도 한다. 이를 바탕으로 ChatGPT가 나 자신과 우리 사회에 미칠 파장의 유불리를 냉정하게 따질 수 있는데, 이런 생각을 할 때가 사람이 인공지능보다 우월함을 확인하는 순간이다.
이용약관 | 개인정보 취급방침 | 공익위반제보(국민권익위)| 저작권 정보 | 이메일 주소 무단수집 거부 | 관리자 로그인
© 2009-2024 (사)기독교세계관학술동역회 [고유번호 201-82-31233]
서울시 강남구 광평로56길 8-13, 수서타워 910호 (수서동)
(06367)
Tel. 02-754-8004
Fax. 0303-0272-4967
Email. info@worldview.or.kr
기독교학문연구회
Tel. 02-3272-4967
Email. gihakyun@daum.net (학회),
faithscholar@naver.com (신앙과 학문)