(사)기독교세계관학술동역회 기관지
지난 겨울 이후 날마다 신문과 언론에서 보고 듣는 말이 있다. ChatGPT이다. OpenAI 재단이 만든 생성형 인공지능은 여러 영역에서 많은 이야기의 대상이 되었다. 과학기술 정책을 맡고 계신 형제님은 이렇게 고백했다. “제가 열흘 동안 할 다른 국가의 과학기술 정책 연구보고서를 ChatGPT는 몇 초 만에 만들었어요. 놀랐습니다. 앞으로 저 같은 사람이 하는 일이 없어질 수도 있을 것 같아요.”
이번 학기 첫 계약법 강의 시간에 ChatGPT를 시연했다. 학생들에게 우리가 이런 시대에 살아가고 있다는 것을 보여주고 싶었다. 학생들이 보는 앞에서 “우리가 왜 법을 공부해야 하나요?”라는 질문을 ChatGPT에게 했다. ChatGPT는 순식간에 정연한 논거를 들면서, 우리가 왜 법을 공부해야 하는지를 설명했다. 학생들에게 ChatGPT의 대답을 평가하게 했다. 50명이 듣는 강의에서 8명의 학생이 80점을 준다고 대답했다. 대부분의 학생은 90점을 주었고, 일부 학생은 100점 만점을 준다고 손을 들었다.
그 뒤로 인터넷에서 찾고 싶은 것이 있거나, 궁금한 내용이 있을 때마다 ChatGPT에게 물었다. 그러면서 ChatGPT의 답변이 준비된 유형처럼 느껴졌다. ChatGPT가 인터넷에 있는 일반적인 상황에 대해서는 답변을 잘한다. 그러나 인터넷에서 잘 다루어지지 않는 구체적인 상황에 대한 ChatGPT의 답변은 이상했다. 큰 문제는 ChatGPT는 “모르면 모른다”라고 하지 않고, 거짓말을 한다는 것이다. ChatGPT 3.5에서 4.0으로 넘어가면서, 정확도를 높였다고 한다. 그러나 지금 상황에서도 이런 문제를 해결하지 못한다.
‘인공지능’(AI)이라는 말을 떠올릴 때, 사람마다 서로 생각하는 인공지능이 다르다. 어떤 분은 사람의 일을 특정 영역에서 돕는 ‘약인공지능’을 떠올린다. 그런데 다른 분은 내일 당장 인류를 위협하는 ‘강인공지능’을 떠올리기도 한다. 지금 공학자분들이나 현장에서 일하시는 엔지니어 분들은 대체로 ‘약인공지능’을 전제로 설명하는 경향이 있다. 그러나 아무런 물리 세계의 제한이 없는 미래학자들이나 사회학자들은 거리낌 없이 ‘강인공지능’과 ‘특이점’을 말한다.
ChatGPT라는 생성형 인공지능은 우리에게 기회를 준다. 그러나 ChatGPT와 같은 생성형 인공지능이 일으킬 수 있는 위험성에도 주의해야 한다. 이미 ChatGPT와 같은 생성형 인공지능이 만들어낸 가짜 뉴스가 인터넷에 퍼져가고 있다. 특히 선거와 관련된 그릇된 정보가 선거의 방향을 잘못된 쪽으로 이끄는 위험성을 인식하기 시작했다. OpenAI 재단, 구글과 경쟁하는 메타(이전 ‘페이스북’)는 자신의 생성형 인공지능 모델의 ‘소스코드’(source code)를 얼마 전에 인터넷에 공개했다. 사람들이 이러한 공개 코드를 바탕으로, 자신만의 생성형 인공지능을 만들어 낼 수 있다.
스탠포드 대학교는 메타가 제공한 ‘소스코드’로 생성형 인공지능을 만드는 프로젝트에 참여했다. 그러나 이러한 ‘소스코드’로 만든 생성형 인공지능이 경찰에 잡히지 않고, 시체를 처리하는 방법이나, 히틀러를 지지하는 나치의 견해를 제시하는 내용물을 만들어 냈다고 한다. 스탠포드 대학은 이러한 문제의 심각성을 인식하고, 그러한 생성형 인공지능을 인터넷에서 제거했다. 인터넷과 이메일이 처음 등장했을 때, 많은 사람은 ‘스팸 메일’로 골머리를 앓았다. 그러나 생성형 인공지능이 만들어 내는 가짜 정보는 스팸 메일과 견줄 수 없는 파괴력이 있다.
사람에게 상처받고서, 많은 사람이 인공지능을 대안으로 여긴다. 많은 인터넷 댓글은 인간 판사는 공정하지 않아서, 인공지능 판사를 전면 도입해야 한다고 주장한다. 중국과 같은 일부 국가는 인공지능 판사를 써서 실제 사건을 해결한다. 그러나 인터넷 댓글에서 주장하는 것처럼, 모든 민사·형사 사건에 인공지능 판사를 도입하고 있지 않다. 주차위반 사건이나 양육비 사건과 같이, 윤리적·규범적인 판단이 필요하지 않은 사안에서만 인공지능 판사를 쓰고 있다.
세상은 무엇에도 구애받지 말고 오늘을 즐기라고 유혹한다. 그러나 이런 속삭임은 하나님의 창조질서가 아니라, 죄된 상태이다. 이 시대의 많은 젊은이는 인공지능과 사람이 사랑하고 결혼할 수 있다고 여긴다. 젊은 세대에게 ‘사랑’은 ‘감정적인 사랑’을 뜻하기 때문이다. 그러나 인공지능은 우리의 소망이 될 수 없다. 인공지능은 우리의 삶의 본질이 될 수 없다. 인공지능은 우리의 삶에서 우리가 하는 일을 도와주는 ‘도구’일 뿐이다. ChatGPT와 같은 생성형 인공지능도 이러한 삶의 본질을 바꾸지 못한다.
하나님은 하나님의 형상대로 사람을 창조하셨다.(창 1:27). 사람이 만든 인공지능은 하나님의 형상이 없다. 따라서 인공지능은 영적인 존재가 아니다. 지혜의 근본은 하나님이시다.(잠 1:7; 9:10). 그리고 우리에게 길이요, 진리이요, 생명이신 분은 예수 그리스도뿐이시다.(요 14:6). 생성형 인공지능의 시대에도 진리는 단순하고 명확하다. 이런 방향성에서 그리스도인은 ChatGPT를 써야 한다. 또한 삶의 영역에서 생성형 인공지능을 쓰는 분별의 지혜가 있어야 하고, 무엇이 진리이고 진리가 아닌지를 더욱 공부할 필요가 있다.
이용약관 | 개인정보 취급방침 | 공익위반제보(국민권익위)| 저작권 정보 | 이메일 주소 무단수집 거부 | 관리자 로그인
© 2009-2024 (사)기독교세계관학술동역회 [고유번호 201-82-31233]
서울시 강남구 광평로56길 8-13, 수서타워 910호 (수서동)
(06367)
Tel. 02-754-8004
Fax. 0303-0272-4967
Email. info@worldview.or.kr
기독교학문연구회
Tel. 02-3272-4967
Email. gihakyun@daum.net (학회),
faithscholar@naver.com (신앙과 학문)