[비센의 재미있는 과학 이야기] 인공지능이 지배하는 세상을 두려워 해야 하나 > 교육칼럼

본문 바로가기

사이트 내 전체검색


교육칼럼

[비센의 재미있는 과학 이야기] 인공지능이 지배하는 세상을 두려워 해야 하나

페이지 정보

작성자 석준영 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 작성일17-05-31 16:29 조회1,982회 댓글0건

본문

 

지난 5월 27일 중국 저장성 국제컨벤션센터의 특별 대국실에서 열린 구글사의 인공지능 알파고(Alpha Go)가 중국의 프로 바둑 기사 커제 9단과의 세번의 대국에서 3전 3승으로 완승을 거두며 작년 이세돌 9단과의 대결이후 다시 세간에 주목을 받았습니다. 알파고는 이번 대국을 끝으로 바둑계에서 완전한 은퇴를 선언했으며, 총 69전 68승 1패라는 엄청난 기록을 남기게 되었습니다. 유일한 1패는 바로 작년 이세돌 9단에게 진 것이기에 이세돌 9단은 인공지능 알파고에게 패를 안긴 유일한 인간으로 남게 되었습니다. 

작년 이세돌 9단과의 승부를 앞두고서 알파고는 이전에 치러진 대국들의 기보들을 습득함으로써 바둑을 학습해 온 것으로 알려졌는데, 이세돌 9단과의 승부 이후로는 인간의 기보를 학습하는 대신 자체적으로 창출해낸 기보들을 이용하는 방법으로 학습하여 성능을 향상시켰다고 합니다. 바둑은 가능한 수가 너무나 다양해서 연산을 빠르게 할 뿐인 컴퓨터가 창의적인 인간을 절대 이길 수 없을 것이라고 생각되었던 게임입니다. 하지만, 작년 이세돌과의 승부로부터 이번 커제 9단과의 승부를 통해서 인공지능이 단순히 입력된 정보들을 처리하는 것이 아니라 스스로 학습을 통해 해야할 일들을 판단할 수 있는 능력을 갖출 수 있다는 것을 증명해 보였다는 것에 커다란 의미가 있다고 할 수 있습니다. 커제와의 대국이 끝난 뒤 구글관계자는 이번 바둑 대국을 통해서 인공지능의 최고의 수준을 경험할 수 있었으며, 이제 인류가 인공지능을 도구로 삼을 수 있는 잠재력을 확인할 수 있었다고 발표했습니다. 하지만, 많은 사람들은 공상과학의 이야기처럼 인간이 인공지능의 도구가 되지 않을까하는 우려를 하기도 합니다. 

그동안의 컴퓨터는 그저 엄청나게 빠른 계산능력을 갖고 있는 주판이라고 생각할 수 있습니다. 인간이 못하는 엄청난 것들을 처리해 내는 것처럼 보이지만, 사실 인간이 정해주는 것들만을 입력 값으로 받아들이고, 인간이 정해준 방법으로만 계산할 수 있으며, 인간이 보고자 하는 결과만을 보여줄 수 있는 기계덩어리였던 것입니다. 예를 들어 1에서 1을 빼는 단순한 계산을 하고자 할 때, 만약 인간이 그 식을 1에서 1을 뺐다가 다시 더하는 작업을 백번 반복한 후 답을 출력하라는 지시를 내리면, ‘백번을 반복해서 어차피 답은 같을 텐데’ 라는 의구심을 갖는 것이 아니라 시킨 대로 백번의 계산을 끝낸 후에 답을 출력할 뿐인 것입니다. 그것이 옳은 방법인지 아닌지, 또는 가장 효율적인 방법인지 아닌지를 판단하는 능력은 컴퓨터에게 존재하지 않았기 때문입니다. 

하지만, 이제 인공지능은 스스로 실수를 통해 더 나은 길을 찾아가는 판단력을 갖을 수 있는 가능성을 보여준 것이기 때문에 인간이 제시하는 방법보다 더 효율적인 방법을 스스로 찾아낼 수도 있고, 또 인간이 시킨 작업들을 자체적인 판단에 의해 거부하거나 다르게 해석하게 될 가능성도 있다는 것입니다. 우리들의 삶 속에서는 분명 조금 해를 입는 일이라 할지라도 해야 하는 일이 있고, 이득을 볼 수 있는 일이더라도 도덕적으로 하지 말아야할 일들이 있지만, 그런 ‘인간미'를 이해하지 못하는 인공지능은 어쩌면 반인륜적인 일들을 다수의 이익이라는 목적하나만을 위해 시행하는 문제점을 나을 수도 있을 것이라는 우려를 갖게 되는 것입니다. 이러한 문제점들은 아직 많은 사람들에게는 먼 미래의 이야기일 뿐이며, 공상과학영화의 좋은 소재거리정도라고 느껴집니다. 하지만, 세계 과학계의 석학들 중 많은 이들이 이러한 미래는 그리 멀지 않은 시간에 현실화될 것이며, 그런 미래를 위해 지금부터 정책적, 제도적인 준비들을 해야 할 것이라고 경고하고 있습니다. 

영국의 유명한 물리학자 스티븐 호킹 박사는 한 방송사와의 인터뷰를 통해 인간의 생물학적 진화과정은 점점 느려지는 반면, 인공지능의 학습속도는 기하급수적으로 빨라지고 있기 때문에 인류는 대부분의 분야에서 인공지능과 경쟁할 수 없고 대체되고 말 것이라고 경고했습니다. 그리고 그는 이러한 인공지능에 대한 규제와 통제를 위해서 범국가적인 기구를 만들어 준비해야 할 것이라고 조언하고 있습니다. 

이렇게 인공지능이 인간을 위협할 수 있는 존재라고 두려워하게 되는 것은 컴퓨터는 인간성, 도덕성 등을 갖지 못한다는 생각 때문입니다. 태생적으로 인간성이나 도덕성을 갖는 것은 불가능하겠지만, 어느 정도의 옳고 그름은 지식과 마찬가지로 학습을 통해 길려질 수 있기 때문에, 인공지능을 개발하는 개발자들이 기본적인 윤리적 도덕 가치들을 인공지능이 학습할 수 있도록 해야 할 것입니다. 이를 위해 컴퓨터가 윤리적 판단을 할 수 있게 하는 알고리즘이 개발되어야 할 것입니다. 하지만, 이러한 점들은 단순히 컴퓨터 프로그래머들에 의해서 성공될 수 있는 것이 아니기 때문에, 인문학자, 교육학자, 철학자 등의 인문 사회학 관련 전문가들의 도움이 필요할 것입니다. 

라이언 일병 구하기라는 영화가 있습니다. 적의 진영 깊숙한 곳에 포로로 잡혀있는 것으로 알려진 라이언 일병을 구하기 위해 일개 정예부대가 투입되고, 결국 라이언 일병은 구하지만, 구출 작전을 성공을 이끌기 위해 많은 대원들이 죽거나 부상당하기도 합니다. 다른 형제들이 모두 전사하였기에 막내아들만은 홀어머니의 품으로 돌려보내주는 것이 인간적인 도리라는 판단 하에 감행된 라이언 일병 구출 작전을 그린 영화를 보면서, ‘겨우 한명을 구하자고 더 많은 사람들이 죽은 거쟎아? 더 안 좋은거 아니야?’라고 반문하는 관객은 많지 않았을 것이라 생각됩니다. 하지만, 그 군대가 만약 전략적 판단을 객관적이고 정확하게 이루어내기 위해 도입된 인공지능에 의해 통솔되었다면 과연 그 인공지능은 구출작전을 해야 한다고 판단을 했을지, 라이언 일병을 포기하는 것이 군사작전상 더 이롭다고 판단을 했을지 모를 일입니다. 물론, 다른 많은 일들과 같이 이러한 문제는 정답이라는 것이 없습니다. 라이언 일병의 어머님의 입장에서는 고맙고 감동적인 작전일지는 모르지만, 그 작전으로 희생된 누군가의 어머니의 입장이라면 아마도 그 전쟁에서 가장 쓸모없고 말도 안 되는 작전이 바로 이 구출작전이라고 생각할 수도 있을 것입니다. 이러한 정답 없는 일들에 대한 판단에서 과연 인공지능은 어떤 판단을 내리게 될 것인지, 더 나아가 어떤 판단을 내리도록 학습을 시켜야 하는지 등이 이러한 인공지능 윤리 학습에 의해 결정될 것입니다. 

그동안의 컴퓨터들은 데이터를 얼마나 빠르게 처리하는가가 관심의 대상이었다면, 앞으로의 인공지능은 얼마나 옳은 판단을 내릴 수 있는가 역시 중요한 관심 대상 중에 하나가 될 것입니다. 무한한 가능성과 잠재성을 보이기에 그 미래에 대한 기대감이 크면서 동시에 우려가 되는 인공지능의 개발이 앞으로 어떻게 이루어져 갈지 주목해 볼 필요가 있을 것입니다. 


  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글플러스로 보내기

댓글목록

등록된 댓글이 없습니다.

교육칼럼 목록

게시물 검색


Copyright © 밴쿠버 중앙일보. All rights reserved.
상단으로
PC 버전으로 보기