(사)기독교세계관학술동역회 기관지
영국 UCL 대학 뇌 인지과학 연구소의 엘리베이터에는 “뇌는 생각하고 기계는 학습한다.”(Brain thinks machine learns)라는 문구가 오래전부터 적혀 있었다. 그 연구소 출신들이 개발한 인공지능 알파고를 기점으로 인공지능이 판타지에서 보편 언어가 되었고, 언어생성 인공지능 모델인 ChatGPT가 도입되어 똑똑한 대학원생보다 낫다는 평을 듣는 이 시점에도 이 문구가 계속 붙어 있을지 궁금하다. 미국 철학자 존 설(John R. Searle)이 제기한 ‘중국어 방’ 논증에 빗대자면, ChatGPT는 제기된 질문과 선택한 대답이 무슨 의미이고 언어적으로 어떤 관계인지 모른다고 할지라도, 단어들을 선별하여 훌륭하게 문장을 구성해 냄으로 스스로 어떤 일을 하는지 잘 알고 있는 듯하다.
ChatGPT를 사용하다 보면, 아닌 줄 알면서도 인격을 대하는 느낌이 있어서, 인간과 대화에 사용하는 경어체를 써야 할지 한 번씩 망설일 때가 있다. 이러한 인격화 경향은 ChatGPT가 인간의 언어를 훌륭하게 구사하고 전문적인 지식을 언어로 제공하기 때문만은 아니다. 1966년 MIT의 바이젠바움(Joseph Weizenbaum)은 사람이 말한 내용을 되묻는 형태의 아주 간단한 알고리듬을 가진 ‘일라이자’(ELIZA)를 개발하였다. ‘일라이자’는 정신과 의사가 환자 상담에 사용하는 방식을 모방하도록 설계된 간단한 프로그램이다. 실제는 의미 없는 질문들을 던지는 것에 불과하지만, 환자가 무의식적으로 빠져들고, 심지어 그 개발에 참여한 제자들도 그 대화형 프로그램에 빠져드는 것을 보고 바이젠바움은 충격을 받았다. 그는 ‘일라이자’ 프로젝트를 접고 인공지능에 대해 성찰한 저서, <컴퓨터의 힘과 인간 이성>을 통해 컴퓨터, 요즘 단어로 인공지능이 가질 위험성을 경고한다. 우리 연구실에서도 자율성이 있게 보이도록 한 ‘정서 로봇’과 정서적으로 상호 작용할 때의 인간 뇌 반응을 연구하고 있다. 참가자는 자율적으로 보이는 ‘정서 로봇’에게서 다른 인간을 대할 때와 유사한 방식으로 반응하는 것을 확인하였다. 이처럼 인간을 모사한 컴퓨터 알고리듬에 대해 무의식적으로 인격을 부여하는 이른바 ‘일라이자 효과’는 점차 더 보편화할 것이다.
바이젠바움은 컴퓨터에 대한 인격화 문제를 우려하였지만, 인간의 개별 기능을 뛰어넘는 인공 지능 기술은 더 심각한 질문과 우려를 자아낸다. 기계가 직간접적으로 생성한 영상이나 문서들이 인터넷 세계를 채우는 속도와 함께 진실성 여부는 큰 문제이다. 이는 새로 학습시키려는 인공지능 모형뿐만 아니라 세상을 살아내기 위해 세상에 대한 예측 모형을 만들어 가는 인간 개인 뇌에 잘못된 ‘편향’을 줄 수 있다.
뇌 인지과학을 연구하는 필자가 느끼는 놀라움과 우려도 있다. ChatGPT는 인간 뇌를 모방한 연결주의 방식의 인공 신경망을 뼈대로 한다. ChatGPT만이 내부를 알 수 없는 블랙박스가 아니다. 인간 뇌 속 860억 개 정도의 신경들이 어떻게 언어를 생성하고 생각을 형성하는지 잘 모른다. 생물학적 신경들 사이의 상호작용 원리들이 제시될 뿐 실험적으로 충분히 테스트 되지 않았다. 뇌 신경을 모사하여 신경 연결망으로 구성된 ChatGPT의 성공은 아이러니하게도 인간 뇌에 대해 제시된 단순한 원리들의 타당성을 시사한다. 뇌 신경 연결성으로 구성된 단순한 원리를 따랐음에도 놀랍게도 인간의 고유한 언어 능력이 훌륭하게 발현되었다! 마음이나 의식을 단순히 신경 연결망으로 보는 자연주의자들의 주장, 인간의 뇌 신경 연결 구조만 찾으면 마음이나 자의식이 기계 안에서 발현될 수 있고 클라우드에 저장될 수 있다는 논리가 그럴 듯 해 보인다. 실제 인간의 의식과 다른 방식으로 작동한다고 하더라도 겉보기에는 마음이 있는 것처럼 보일 수 있을 것이다. 인간 뇌 모사 신경 회로망을 가진 인공지능의 성공으로 인간을 단지 생화학적 신경 회로일 뿐이라는 뇌 전도사들의 커지는 주장이 훤히 예상된다.
한 달 전 구글의 최고 엔지니어인 제프 딘(Jeff Dean) 대신 알파고 수장 데미스 하사비스(Demis Hassabis)가 합병된 구글 딥마인드 수장으로 결정되었다. 인간 뇌를 연구하여 인간을 더 잘 모방할 줄 아는 신경과학자 하사비스가 수년 내에 AGI(Artificial General Intelligence, 범용인공지능)가 개발될 수 있다고 한 발언이 예사롭지 않다. ChatGPT에 인간 뇌의 속성인 기억을 구현하니 인간 행동에 더 가까워져서 ChatGPT 개체끼리 정치 토론을 하는 연구가 발표되고, 스스로 자료를 생성할 수 있는 AutoGPT가 발표되어 중간 목표를 설정하는 인공 지능의 출현을 예고하고 있다. 뇌 신경과학자이자 인공 지능계의 대부인 제프리 힌튼(Geoffrey Hinton)이 자신이 토대를 놓은 현대 인공지능 프로젝트의 위험성을 경고하기 위해 인공지능의 산실인 구글을 떠났다는 소식은 아주 상징적이다. 첫 세대 인공지능의 대부 바이젠바움의 두려움을 이 세대 인공지능의 대부 제프리 힌튼에게서 보게 된다.
인공지능 연구에 대한 법적 기준과 규제에 대해 국제적 논의를 해야 한다는 목소리가 크다. 다만 경쟁 관계에 있는 국가들이 실질적으로 참여할 수 있을지, 생존을 위해 사활을 건 공룡 회사들과 기술자들에게 만연한 인간의 근본적 욕망을 제어하기는 쉽지 않을 수 있다. 그러나 성경에 나오는 거라사 지역의 귀신들린 돼지들처럼, 멈추지 않으면 낭떠러지로 달려갈 것이 틀림없어 보인다. 스스로 하나님이 되고자 하나 비참함에 처한 인간, 하나님이 인간 되심을 통한 인간 구원에 대한 신학적이고 개인적 서사를 가진 그리스도인과 교회의 역할이 매우 중요한 시점이다.
이용약관 | 개인정보 취급방침 | 공익위반제보(국민권익위)| 저작권 정보 | 이메일 주소 무단수집 거부 | 관리자 로그인
© 2009-2024 (사)기독교세계관학술동역회 [고유번호 201-82-31233]
서울시 강남구 광평로56길 8-13, 수서타워 910호 (수서동)
(06367)
Tel. 02-754-8004
Fax. 0303-0272-4967
Email. info@worldview.or.kr
기독교학문연구회
Tel. 02-3272-4967
Email. gihakyun@daum.net (학회),
faithscholar@naver.com (신앙과 학문)