메뉴 건너뛰기

[진보교육] 64호 (2017.04.10. 발간)


[기획]

인지자동화와 비고츠키

1. 인공지능(=인지자동화)의 원리와 실제

 

코난(진보교육연구소)

 

 



  요즘 4차 산업혁명에 대한 관심이 폭발적으로 증가하면서 그 중심에 있는 인공지능에 대한 관심도 높아지고 있습니다. 교육부에서도 이미 여러 차례 논의를 진행하고 작년 말에 슬그머니 2030년까지의 중장기 교육전략에 대한 시안을 제출했다고 합니다. 대선을 전후로 관련 논쟁은 더 커질 것으로 보입니다. 이와 관련하여 지난 224일 전교조 참교육연구소와 진보교육연구소 공동으로 ‘4차 산업혁명과 교육 관점과 대응이라는 제목의 1차 토론회를 진행하였습니다. 이 글은 그 때 인지자동화의 원리와 실제라는 제목으로 발표한 발제문을 좀 더 자세한 설명을 추가하고 서술형으로 바꾼 것입니다. 저는 분명 인공지능 전문가가 아니며 단기간의 독서에 기반하여 이 글을 쓰고 있기 때문에 인공지능에 대한 아래의 내용은 전적으로 저의 한계와 개인적 의견을 포함할 수 밖에 없다는 것을 염두에 두시고 읽어 주시기 바랍니다. 또한 이 글 전체가 발제문 작성시에 참고했던 문헌 중 인공지능과 딥러닝 - 인공지능이 불러올 산업 구조의 변화와 혁신(마쓰오 유타카 지음; 박기원 옮김)’을 주 뼈대로 전개되어, 그 책의 많은 부분을 별도의 설명 없이 인용한 부분이 매우 많으며, 이해를 돕기 위해 그 책의 그림(그림 설명에 제목과 쪽 수를 명시함)도 많이 실어 놓았음을 미리 밝혀둡니다.

 

  서두부터 인공지능에 대한 이해를 돕기 위해 조금은 어렵고 긴 서술이 계속되기 때문에 앞부분에 결론을 제시하고 글을 이어나가도록 하겠습니다. 첫째 현재 소위 말하는 인공지능은 존재하지 않습니다. 알파고도 자율주행차도 인공지능이 아닙니다. 현재는 제3차 인공지능 붐 시대로서 인공지능에 대한 낙관적 기대가 더 많은 것 같습니다. 현재의 인공지능 기술을 냉정히 돌아볼 필요가 있습니다. 인공지능도 결국은 인간의 도구입니다. 이에 현재의 인공지능 기술을 인지자동화로 규정하고자 합니다. 둘째 인공지능과 연계된 사회적 문제(일자리, 삶의 변화, 기계와의 대결)는 자본주의 문제와 맞닿아 있습니다. 많은 부분 자본주의 문제를 기계와 인간의 대결 문제로 대치하고, 인공지능 문제로 환원하고 있습니다. 셋째 그렇다고 사회적 영향이 없다는 것이 아닙니다. 이럴수록 현재 인공지능의 수준과 기업과 국가의 대응을 냉정히 살피고 우리의 대응 방향을 찾아야 합니다. 낙관도 비관도 과장되어 있습니다.

 


기존의 인공지능 연구

 

  지금까지 인공지능의 역사는 도전과 좌절의 역사로 보입니다. 지금까지 인공지능 연구에는 3번의 붐이 있었다고 합니다. 그 분류에 따르면 현재는 3차 인공지능 붐 시대로 볼 수 있습니다. 1차 인공지능 붐은 추론탐색의 시대로 불립니다. 최초의 인공지능 붐인 만큼 인공지능의 성취에 대해 쉽게 생각하는 낙관적인 전망이 우세했던 것으로 보입니다. 인공지능이 인간의 지능을 흉내 내고자 하는 것이기 때문에, 이런 낙관적 전망은 인간 지능에 대한 이해의 부족에 기인한 것이라 말할 수 있습니다. 이때의 인공지능 학자들은 인간의 지능을 규칙과 절차로 완전히 표현할 수 있다고 생각했습니다. 규칙과 절차의 구현은 컴퓨터 프로그램에 맞는 작업이었기에 초기에 간단한 문제들을 컴퓨터 프로그램으로 해결하는 모습을 보고 인공지능 구현을 간단한 문제로 오해한 것입니다. 그림1과 같이 탐색트리를 이용하여 미로 문제를 해결하는 것이 대표적인 방식입니다. 미로가 복잡할 경우 미로를 푸는 것이 인간에게는 어렵지만 컴퓨터는 쉽게 해결합니다. 하지만 그 한계는 금방 드러났습니다. 이러한 방식으로는 토이 프라블럼이라 불리는 간단한 문제만 풀 수 있었던 것입니다. 한계가 들어나면서 1차 인공지능 붐은 겨울을 맞이하게 됩니다. 이 방식의 최대 성취는 1997IBM의 딥블루가 인간 체스 챔피언을 꺽은 일로 볼 수 있다고 합니다.

 

 noname01.jpgnoname02.jpg

               그림1. 탐색트리                                 그림2. 지식을 표현하다


  1차 인공지능의 실패 후 인공지능 연구는 다른 방향을 향하게 됩니다. 컴퓨터에 지식을 집어넣으면 똑똑해진다는 것입니다. 컴퓨터에 지식을 집어넣기 위해 지식을 표현하는 것이 문제가 됩니다(그림2). 이른바 온톨로지연구가 그것입니다. 온톨로지란 사람들이 세상에 대하여 보고 듣고 느끼고 생각하는 것에 대해 서로 간의 상호토론을 통하여 합의를 이룬 바를 개념적이고 컴퓨터에서 다룰 수 있는 형태로 표현한 모델이라고 합니다. 이에 기반한 인공지능 연구는 전문가 시스템과 같이 특정 분야에서 산업적으로 어느 정도 사용이 가능한 수준까지 발달하였으나, 실제로 인간의 지식을 모두 쓴다는 것은 거의 불가능하다는 것을 알게 된 과정이기도 합니다. 이 시기의 하나의 궁극 모형이라고 할 수 있는 것이 IBM이 개발한 왓슨(Watson)입니다. 이 부분에서 인공지능에 대한 IBM의 전략의 탁월성을 볼 수 있습니다. 당시의 기술로 만들 수 있는 첨단 제품을 만들되, 가장 홍보 효과가 높으면서도 적용이 가능한 분야를 찾아내는 눈이라고 할 수 있을 것 같습니다. IBM의 딥블루가 선택한 체스가 그렇고, 왓슨이 선택한 미국 퀴즈쇼가 그러했습니다. IBM 왓슨은 2011년 미국 ABC의 퀴즈쇼 제퍼디최종 라운드에서 역대급 인간 챔피언들을 상대로 우승을 차지합니다. 회사는 다르지만 구글의 알파고도 그랬습니다.

 


인공지능의 난제

 

  이러한 과정에서 인공지능의 난제들이 모습을 드러냅니다. 지식을 넣어서 더 똑똑해지긴 했지만 문제의 의미를 이해하지는 못하기 때문입니다. 예를 들어 기계 번역의 문제를 생각해 보겠습니다. 예컨대 다음과 같은 문장이 있습니다. “He saw a woman in the garden with a telescope.” 이 문장은 논리적으로 보아 서로 다른 두 가지 해석이 존재할 수 있습니다. “그는 망원경으로 정원에서 한 여자를 보았다.”그는 망원경으로 정원에 있는 한 여자를 보았다.” 정원에 있는 여자를 보았다는 것인지, 그 남자가 정원에서 여자를 보았다는 것인지가 분명하지 않습니다. 인간이라면 정원에서 망원경을 보는 경우는 별로 없다라던가 일반적으로 정원에 있는 여자를 남자가 훔쳐본다 등의 지식을 이용하여 후자로 해석할 수 있을 것입니다. 그러나 기계라면 어떨까요? 이런 지식을 완전히 컴퓨터에게 주입하여 알맞은 해석을 하도록 만들 수 있을까요? 쉽지 않아 보입니다.

 

  또한 프레임 문제라는 것이 있습니다. 배터리가 얼마 남지 않은 로봇이 동굴 안에 있는 배터리를 가져와야 하는 과업이 있다고 합시다. 그런데 동굴 안의 배터리 위에 시한폭탄이 설치되어 있다고 합시다. 이 경우 무작정 배터리를 가지고 나오면 오히려 위험할 수 있기 때문에 상황을 판단하여 가지고 나올지 말지를 결정해야 하는데, 상황을 어디까지 고려해야 하는지가 문제가 됩니다. 폭발까지 시간이 얼마나 남았는지 등의 중요한 상황 판단이외에, 로봇이 동굴이 무너질지 말지 등 어떻게 보면 현재 상황과 관계없는 상황까지 모두 고려하다가 시간이 부족해 시한폭탄이 터져 버릴 수도 있다는 것입니다. 프레임 문제는 어떤 과업을 수행할 때 관계있는 지식만을 꺼내서 사용한다라는 인간이라면 자연스럽고 당연한 일을 인공지능에서 구현하는 것이 얼마나 어려운지 보여줍니다.

 

  또한 심볼 그라운딩 문제라는 것이 있습니다. 인간 언어와 같은 기호를 그것이 의미하는 것과 어떻게 연결할 것인가의 문제입니다. 예를 들어 인간은 얼룩말을 한 번도 본 적이 없을지라도 얼룩이라는 말의 의미를 생각하여, 얼룩말을 처음 보고도 그 동물이 얼룩말임을 알아 볼 수 있습니다. 그러나 기계는 얼룩을 알아도 그 의미를 아는 것이 아니기에 얼룩말을 보고도 알아보지 못한다는 것입니다. 지식을 많이 받아들일수록 그만큼 행동할 수 있었지만, 딱 그만큼만 가능했던 것입니다. 그 이상은 하지 못했습니다. 이러한 난제들이 드러나면서 인공지능 연구는 다시 한 번 겨울을 맞이하게 됩니다.

 


기계학습과 딥러닝

 

  현재의 3차 인공지능 붐은 기계학습과 딥 러닝으로 대표되며, 이번에는 IBM이 아닌 구글 딥 마인드에서 만든 알파고가 세계 최강의 프로바둑기사 중 한 명인 이세돌 9단을 꺾으면서 엄청난 관심을 끌게 됩니다. 3차 인공지능 붐은 인터넷의 발달로 인한 소위 빅 데이터의 출현과 통계학적 방법에 기반하여 패턴인식(문자, 그림 식별 등) 분야에서 시작됩니다. 통계학적 방법이란 예컨대 기계 번역을 할 때 특정 언어의 문법이나 의미 구조는 무시하고 확률이 높은 것을 찾아내 번역의 질을 높이는 방식입니다. 데이터가 적을 때 그 성능은 보잘 것 없었으나, 데이터가 폭발적으로 증가하면서 통계적 처리에 기반한 번역의 질이 엄청나게 증가하게 됩니다. 패턴인식도 마찬가지입니다. 많은 패턴 자료가 있으면 기계학습이라는 기술을 이용하여 기계가 특정 패턴의 특징을 학습하도록 하는 것입니다. 하지만 기계학습의 경우 학습할 특징을 선택하고 설계하는 것은 인간의 몫이 될 수밖에 없다는 한계가 있습니다. 그러나 특징표현학습이라는 딥 러닝의 경우, 데이터들 속에서 스스로 특징을 추출하여 학습을 한다고 합니다. 딥 러닝이 적용되면서 패턴인식 분야의 예측 정확도가 엄청나게 상승하게 되었으며, 이를 통해 3차 인공지능 붐이 촉발되었다고 합니다. 딥 러닝의 경우 스스로 특징을 추출하여 학습한다는 말만 보면 마치 인공지능의 난제 중의 하나인 심볼 그라운딩 문제를 해결할 실마리를 찾을 것처럼 보이기도 합니다. 기존의 인공지능이 의미를 이해하지 못한(개념을 파악하지 못한) 상태에서 개념과 기호를 기계적으로 연결하여 지식을 표현하려 했다면, 인공지능이 스스로 특징을 추출하여 학습(개념 습득)을 한다면 최종적으로 습득한 개념에 기호만 연결하면 심볼 그라운딩이 가능하게 된다는 것으로 보이기 때문입니다. 이러한 조금은 낙관적인 이해에 기반하여 진정한 의미의 인공지능(소위 강한 인공지능)이 가능하다고 보는 학자들이 많이 있는 것 같습니다. 과연 강한 인공지능이 가능한가 여부에 대해서는 현재 기계학습에 기반한 딥 러닝 기술을 좀 더 자세히 살펴보고 이야기해 보겠습니다.

 


기계학습의 배경

 

  3차 인공지능 붐을 이끈 기계학습과 딥 러닝에 대해 자세히 살펴보겠습니다. 딥 러닝은 이론적으로 다른 학문 분야에서 정립되어온 통계학적 방법과 신경망 모델에 기반하고 있습니다(통계학적 방법을 이용하여 데이터를 분류하는 법을 배우는 것이 기계학습이며, 이 때 분류 방법에는 여러 가지가 있습니다. 그 중에서 신경망 모델을 이용하는 기계학습이 발달하여 탄생한 것이 딥 러닝입니다). 이것이 빅 데이터 축적과 컴퓨터 연산력의 발달이라는 두 가지 물질적 기반과 만나면서 커다란 성과를 보이기 시작합니다. 통계적 처리의 신뢰성은 데이터가 많을수록 증가하는데, 인터넷 발달과 대용량 저장소의 증가는 빅 데이터를 출현시켰으며, 향후 사물인터넷 발달로 그 양은 더욱 폭발적으로 증가할 것으로 보입니다. 또한 데이터양의 증가에 따라 통계처리 분석에 필요한 연산량이 엄청나게 증가하는데, 병렬연산(많은 연산을 동시에 하는 기술) 기법과 GPU(그래픽 처리 장치, 원래 그래픽 처리 연산을 위해 개발되었으나 기계학습 연산에도 뛰어난 성능을 발휘함) 등의 발달에 따라 컴퓨터의 연산력이 증가하면서 엄청난 양의 연산을 빠르게 할 수 있게 되면서, 기계학습이 가능해지게 된 것입니다. 이처럼 기계학습은 통계처리에 기반하기 때문에 통계학에서 다루는 데이터 마이닝’(대규모로 저장된 데이터 안에서 체계적이고 자동적으로 통계적 규칙이나 패턴을 찾아내는 것)과 매우 유사합니다. 둘 다 대량의 데이터를 기준에 맞추어 분류하거나, 데이터의 특징을 찾아내는 알고리즘을 사용하며, 단 데이터 마이닝의 목적이 현상이나 특성을 발견하는데 있다면 기계학습은 예측에 목적을 갖는 것이 차이라고 할 수 있습니다.

 


기계학습의 용어

 

  여기서 기계학습에 쓰이는 용어의 의미가 일상생활에서 쓰일 때의 의미와 다르다는 것을 지적할 필요가 있습니다. 기계학습의 목적이 예측인 만큼 실제 기계학습에서 말하는 학습이란 실제로 판단 규칙 만들기를 의미합니다. 인간의 학습은 그 범위나 내용이 훨씬 광범위합니다. 기계학습에서는 학습한 판단 규칙에 따라 새로운 데이터의 결과를 예측하는 것을 일반화라 말하며, 입력 데이터를 구별할 수 있는 특징으로 수량화 한 것을 특징이라고 말합니다. 예컨대 분꽃은 꽃받침의 길이와 넓이, 꽃잎의 길이와 넓이에 따라 구분되는데, 이 때 수량화된 4가지 양을 분꽃의 특징이라고 부른다는 것입니다. 여기서 수량화가 중요합니다. 컴퓨터는 본질적으로 수량화된 데이터만 취급할 수 있습니다. 일반적인 기계학습의 경우 학습할 특징을 인간이 지정해 주어야 하지만, 딥 러닝에서는 특징을 스스로 발견하며, 딥 러닝에서 스스로 발견한 특징을 개념이라고 부르기도 합니다. 인간의 개념은 훨씬 복잡하고 풍부한 내용을 지닙니다. 이와 같이 기계학습에서 학습’, ‘일반화’, ‘특징’, ‘개념등의 용어를 이용하지만 그 실제 의미는 우리가 일반적으로 사용하는 의미와 다르다는 데 유의할 필요가 있습니다. 기계가 사람처럼 학습하고 특징을 스스로 찾아 일반화하고 개념을 습득한다고 생각하면 안 됩니다.

 


기계학습의 분류

 

  기계학습에는 3가지가 있다고 합니다. 첫째는 지도학습입니다. 지도학습은 입력올바른 출력()’이 세트가 된 훈련용 데이터를 미리 준비하고, 어떤 입력이 주어졌을 때 올바른 출력이 나오도록 컴퓨터에 학습을 시키는 것입니다. 컴퓨터는 훈련용 데이터 세트를 학습하여 올바른 출력이 나오는 판별식을 만듭니다. 이 판별식은 2차 함수 판별식같이 정확한 결과를 보장하는 공식이 아니라 다량의 데이터를 통해서 얻어 낸 통계적 경험 공식이라고 할 수 있습니다. 심하게 말하면 통계적으로 때려 맞추는 것입니다. 이 판별식의 유용성은 예측 정확도로 측정되며, 그 정확도는 학습용 데이터 세트의 질이나 기계학습 방법에 좌우됩니다. 이에 따라 학습 완료 후 새로운 데이터를 주면 컴퓨터는 옳든 그르든 결과를 출력합니다. 그 답이 맞는지 아닌지는 모릅니다. 예컨대 손 글씨를 인식하는 법을 학습시킬 경우 다양한 손 글씨 데이터 세트를 준비하고, 학습과정에서 답을 알려주는 학습을 통해 판단 규칙을 수립합니다. 그 다음 새로운 손 글씨 데이터를 주면 컴퓨터는 수립된 판단 규칙을 이용하여 글씨를 인식하고 결과를 도출합니다. 둘째는 비지도 학습입니다. 비지도학습의 목적은 레이블()이 없는 데이터를 분류하는 것입니다. 비지도 학습은 주어진 데이터 세트를 분석하여 특징을 파악하고 패턴을 인식하여 분류합니다. 통계적으로 분포가 유사한 것들끼리 묶는 것이 목적입니다. 셋째로 강화학습이 있습니다. 강화학습은 행동에 대한 지도(보상과 벌칙)’를 받아 학습을 하는 것으로, 시행착오를 통한 스스로 학습이 가능하기 때문에 게임이나 로보틱스 분야에 가장 효과적이라고 합니다. 이는 관측-행동-보상’(경험)이라는 상호작용을 반복하면서 보상을 최대화하는 방법을 습득하는 것입니다. 강화학습은 행동심리학에 기반하기 때문에 지도’, ‘보상’, ‘벌칙’, ‘행동’, ‘관측’, ‘경험등의 용어가 이용되고 있지만, 그것이 인간 행동과 관련하여 쓰일 때와 의미가 똑같다고 생각하면 안 됩니다. 인간에게 주어지는 벌칙이나 보상이 기계에게 주어지는 벌칙이나 보상과 같을 수는 없습니다. 바둑이 일종의 게임이기 때문에 알파고에 강화학습이 일부 이용되었다고 합니다.

 


신경망 기계학습의 기초 원리

 

noname03.jpg

       그림3. 선형회귀분석

 

  이제 신경망에 기반한 기계학습의 기초 원리에 대해 이야기해 보고, 이를 기반으로 현재 각광받는 딥 러닝이라는 것이 무엇인지 알아보고자 합니다. 신경망 기계학습은 기본적으로 통계학의 회귀분석 방법을 신경만 모델에 적용한 것입니다. 먼저 회귀분석 중 가장 단순한 선형 회귀분석에 대해 설명해 보겠습니다. 통계학에서 선형 회귀는 종속 변수(y)와 한 개 이상의 독립 변수(x)의 선형 상관관계를 모델링하는 회귀분석 기법입니다. 편의상 독립 변수(x)가 하나라고 하겠습니다. 예컨대 키와 몸무게의 상관관계를 모델링한다고 해 보겠습니다. 먼저 많은 사람들의 키와 몸무게를 조사합니다. 그 다음 키 값을 x로 놓고 몸무게 값을 y로 놓은 후 2차원 좌표 평면에 그 점들을 표시합니다. 그랬더니 그림3과 같이 분포했다고 합시다. 일반적으로 키가 클수록 몸무게가 많이 나가는 경우가 많기 때문에, 점들은 무작위로 분포하지 않고 그림과 같이 특정한 직선 근처에 모이게 됩니다. 이 때 키와 몸무게의 관계를 일차함수(직선)로 모델링할 경우, 점들의 분포와 가장 일치하는 직선의 방정식을 결정하는 것이 회귀분석의 목표가 됩니다. 일차함수는 “y = ax + b”로 표시할 수 있으므로, 실제로는 직선의 기울기(a)y절편(b) 값을 구하는 것이 목표가 됩니다. 이 때 점의 분포와 가장 일치하는 것을 판단하는 기준으로 최소제곱법이라는 방법이 가장 많이 쓰인다고 합니다. 최소제곱법이란 실제값과 예측값의 오차의 제곱의 합을 최소화하는 기법입니다. 특정한 a, b값을 가지는 직선과 모든 데이터 점들의 거리(오차)를 제곱하여 합한 후, 그 값이 최소가 되는 a, b값을 결정하는 것입니다. 이 때 점들의 개수가 많아질수록 모델의 정확도가 증가하지만, 계산량도 함께 증가하게 됩니다. 이 때 모든 a, b값에 대한 오차를 다 계산하는 것도 불가능하고, 무작위로 몇몇 a, b값만을 선택하여 오차를 계산한다면 a, b의 정확도가 떨어지기 때문에, 특정 a, b값에서 시작하여 오차가 줄어드는 방향으로 a, b값을 조금씩 변화시키는 방법이 중요합니다. 기계학습의 경우 a, b에 해당하는 값이 엄청 많기 때문에 이 방법이 더욱 중요하며 학습의 성패를 좌우하기도 합니다.

 

  이 선형 회귀분석을 기계학습에서 예측 모델로 사용할 수 있습니다. 기계학습에서는 독립변수( x)특징이라 부르고, 종속변수(y)레이블이라고 부릅니다. 회귀분석에서 a, b값을 구하는 것을 기계학습에서는 학습이라 부릅니다. 예컨대 많은 키(x)와 몸무게(y) 데이터를 이용하여 a, b값을 구하면, 이 값을 이용하여 새로운 키가 주어졌을 때 몸무게를 예측할 수 있게 되는 것입니다.

 

noname04.jpg  

     그림 4. 신경세표(뉴런)



noname05.jpg

         그림 5. 퍼셉트론

 

  이제 신경망 모델에 대해 살펴보겠습니다. 인간의 뇌는 뉴런(그림4)이라 불리는 수많은 신경세포로 이루어져 있습니다. 각각의 뉴런은 인접한 뉴런과 시냅스라는 구조를 통해 신호를 주고받음으로써 다양한 정보를 받아들이고, 저장하는 기능을 합니다. 하나의 뉴런은 수상돌기를 통해 여러 뉴런에서 오는 신호를 받아들이고, 축삭돌기를 통해 다른 뉴런에 신호를 전달합니다. 뉴런은 신호 전달의 강도를 조절함으로써 기능의 유연성을 획득합니다. 이러한 뉴런의 기능을 모델화한 인공신경망이 퍼셉트론(perceptron, 그림5)입니다. 뉴런 하나가 퍼셉트론 하나에 대응됩니다. 하나의 퍼셉트론은 뉴런처럼 여러 퍼셉트론에서 온 신호 입력값(x1 x2 ... xn)에 가중치(w1 w2 ... wn)를 곱한 것을 모두 합한 값을 활성함수로 처리한 결과값을 출력합니다. 예컨대 입력값이 (0.8 0.2 0.0 1.0)이고 가중치가 (0.5 1.0 4.0 2.6)이라고 합시다. 여기서 입력값에 가중치를 곱한 것을 모두 합하면 0.8×0.5 + 0.2×1.0 + 0.0×4.0 + 1.0×(-2.6) = -2.0이 됩니다. 이 값을 시그모이드 함수(활성함수의 일종)에 대입합니다. 시그모이드 함수(-2.0) = 1.0이라면 최종 출력값이 1.0이 되는 것이며, 이 출력값은 이 신호를 받는 다른 퍼셉트론의 입력값이 됩니다(그림6). 따라서 가중치(w1 w2 ... wn)가 변하면 출력값이 변하게 되는데, 원하는 출력값을 얻을 수 있는 가중치를 구하는 것이 바로 학습이 됩니다. 선형 회귀분석에서 a, b값에 해당하는 것이 가중치(w1 w2 ... wn)가 되는 것입니다. 인간의 뉴런이 학습에 의해 시냅스의 결합 강도를 변화시키는 것을 가중치를 도입함으로써 모델화한 것으로 볼 수 있습니다.

 

noname06.jpg

     그림 6. 뉴런의 모델화



  입력층과 출력층만 있는 단층 퍼셉트론의 경우 특정 논리 연산(XOR)이 불가능하여, 이를 보완하기 위해 입력층과 출력층 사이에 은닉층을 다층으로 쌓아 뉴런의 작동을 모델화한 것을 다층 퍼셉트론(심층 신경망, 그림7)이라고 합니다. 이때 모든 퍼셉트론 간의 연결에 대해 각각 전부 가중치가 부여되며, 이 가중치를 다 구하기 위해서는 회귀분석의 최소제곱법에 해당하는 학습이론이 필요하게 됩니다. 예컨대 분꽃을 분류하는 법을 학습시키기 위해 입력층에 꽃받침의 길이와 넓이, 꽃잎의 길이와 넓이를 입력하고, 출력층에서 어느 분꽃인지 확률값을 출력하도록 하여 분꽃을 분류하도록 하는 것입니다. 이 때 여러 종류의 분꽃의 입력 데이터(꽃받침의 길이와 넓이, 꽃잎의 길이와 넓이)를 많이 모으고, 이 많은 데이터에 대해 가능한 한 많이 올바른 결과값을 출력하는 가중치를 구하는 것이 바로 기계학습인 것입니다. 심층 신경망을 이용하여 손글씨 문자를 인식하는 기계학습 과정을 잘 보여주는 것이 그림8입니다.


 

 noname07.jpg

   그림 7. 다층 퍼셉트론(심층 신경망)

 

noname08.jpg noname09.jpg

           그림 8. 손 글씨 문자 인식                  그림 9. 학습 페이즈와 예측 페이즈


  심층 신경망 학습에 사용되는 학습이론이 오차역전파법입니다. 오차역전파법은 대표적인 지도학습 알고리즘으로 오차(예측과 실제값의 차이)를 역전파시켜 가중치를 구하며, ‘경사감소법을 이용한다고 합니다. 자세히는 모르지만 경사감소법이란 회귀분석에서 최소제곱법으로 a, b값을 구할 때 오차를 줄이는 방향으로 a, b값을 조절하는 방법을 가리키는 것으로 보입니다. 모든 a, b 값 쌍에 따른 오차를 다 계산할 수도 없고 a, b를 확률적으로 때려 맞출 수도 없기에 오차를 최소화하는 방향으로 a, b값을 변화시킬 방법이 필요한 것입니다. 이 경우 입력층, 은닉층, 출력층에 사용되는 퍼셉트론의 양과 학습에 사용되는 데이터의 양이 증가함에 따라 전체 계산량이 엄청나게 증가하게 됩니다. 따라서 학습에는 매우 많은 시간이 걸립니다. 하지만 일단 학습을 완료하여 가중치를 다 구하면 예측은 순식간에 끝나게 됩니다(그림9). 이러한 기계학습의 문제점은 특징 설계를 인간이 해야 한다는 것입니다. 예컨대 분꽃 분류에 필요한 분꽃의 특징(꽃받침의 길이와 넓이, 꽃잎의 길이와 넓이)을 정하는 것도 인간이고 분꽃의 종류를 정하는 것도 인간입니다. 엄청난 양의 손 글씨 데이터 세트를 알맞게 준비하는 것도 인간이 해야 합니다. 이러한 데이터 준비 과정에 오랜 시간이 요구되기 때문에 실제로 MNIST(손 글씨 숫자 이미지 데이터베이스, 그림8과 그림9)TIMIT(음성 데이터베이스)라고 하는 기계학습용 표준 데이터 세트가 존재합니다. 컴퓨터는 아무 의미도 모른 채 엄청난 연산을 수행하여 옳든 그르든 통계적으로 결과를 산출합니다. 조금만 더 공부하면 텐서플로(TensorFlow)’라는 구글에서 제공하는 기계학습용 오픈소스 소프트웨어 라이브러리와 MNIST를 이용하여 기계학습을 직접 구현해 볼 수도 있다고 합니다.

 


딥 러닝

 

  여기서 보다 발달된 기계학습으로서 심층 신경망의 여러 문제를 해결하고 결과값의 정확도를 비약적으로 향상시켜 인공지능 연구에 하나의 돌파구가 되었다고 평가받는 딥 러닝에 대해 알아보겠습니다. 사실 딥 러닝의 역사는 인공신경망에 기반하여 설계된 개념부터 따지자면 최소 1980년까지 거슬러 올라가야 한다고 합니다. 1989년 이미 오류역전파법에 기반한 알고리즘으로 손으로 쓴 우편번호를 인식하는 신경망이 소개되고 성공적으로 동작했다고 합니다. 하지만 당시 기술로 학습 시간이 3일이나 걸리는 등 다른 분야에 적용되기에 비현실적으로 여겨져 크게 확산되지 못했다고 합니다. 그러던 것이 2000년대 기존 인공신경망의 과적합(오버피팅)’ 문제 등을 해결하는 방법이 개발되면서 딥 러닝은 중흥기에 들어서게 됩니다.

 

  이러한 딥 러닝의 부활에는 크게 3가지 이유가 있다고 합니다. 첫째는 인공신경망 모델의 단점인 과적합 문제 등이 해결되었다는 것입니다. 그러나 과적합 문제가 해결되었다고 학습시간이 줄어들지는 않습니다. 학습시간 문제의 돌파구를 마련한 둘째 이유가 바로 하드웨어의 발달입니다. 특히 강력한 GPU와 병렬연산 기술의 발달로 딥 러닝에서 요구되는 복잡한 행렬 연산에 소요되는 시간이 크게 단축되었다고 합니다. 셋째로 빅 데이터의 출현이 있습니다. 지도학습의 경우 엄청나게 많은 학습용 데이터 세트(정답이 붙은)가 필요합니다. 예컨대 고양이 얼굴을 인식하려면 엄청나게 많은 고양이 사진이 필요합니다. 인터넷의 수많은 사진 중에 사람이 고양이 사진을 수만 장 고른다고 생각해 보십시오. 이러한 대량의 데이터 세트에 모두 정답을 달아주는 일 자체가 엄청나게 많은 시간과 노력이 필요한 일인데, 인터넷의 발달로 태그(정답)가 붙은 대량의 빅 데이터가 공급되어 학습에 이용되게 됩니다.

 

  심층 신경망의 대표적 문제점에는 신경망이 깊어질수록 오차가 아래로 전파되지 않는 경사감소 소멸문제와, 심층 신경망이 노이즈를 포함한 데이터를 과도하게 학습하여 오히려 예측의 정확도가 떨어지는 과적합(overfitting)’ 문제가 있다고 합니다. 딥 러닝은 종래의 기계학습과는 다르게 한 층씩 계층마다 오토인코더라는 정보압축기를 사용하여 학습을 한다고 합니다. 입력층과 출력층 사이에 은닉층을 한 층만 놓고 의도적으로 은닉층의 퍼셉트론의 개수를 줄인 후, 출력층에서 나오는 결과가 입력층과 같은 값을 갖도록 인코딩(압축)과 디코딩(복원)을 되풀이하는 동안 효율적으로 적은 정보량을 경유해 본래로 되돌아 갈 수 방법을 학습해 나간다고 것입니다(그림10). 이 과정이 기존의 기계학습과 다른 점은 데이터의 특징을 인간이 설정하여 학습시키는 것이 아니라, 컴퓨터가 스스로 특징을 찾아내도록 한다는 것입니다. 딥 러닝은 이러한 오토인코더를 다층으로 쌓음으로써 점점 고차원의 특징을 스스로 추출할 수 있다고 합니다(그림11). 이와 같이 데이터를 이용하여 스스로 특징을 찾아내고 판별하는 딥러닝의 학습을 특징표현학습이라고 부르기도 합니다.


noname10.jpg

그림 10. 오토 인코더


noname11.jpg
그림 11. 오토 인코더를 2층으로 한다


  또한 딥 러닝은 과적합 문제를 해결하기 위해 입력 신호에 일부러 노이즈를 첨가하는 방법을 이용합니다. 원래 데이터를 약간 변형시킨(조금 달랐을지 모르는 과거) 데이터를 많이 만들어 학습을 시킴으로써, 과적합 문제를 일으키는 우연적 요소를 제거하는 효과를 얻을 수 있다고 합니다. 또한 은닉층의 50% 정도의 퍼셉트론을 임의로 누락시켜 학습을 시킴으로서 특정한 특징에 대한 의존도를 감소시키는 드롭아웃이라는 방법도 쓴다고 합니다. 임의로 퍼셉트론을 누락시킴으로서 어떤 특징이 다른 특징을 커버할수록 있도록 하여 예측 능력이 더 최적화된다는 것입니다. 이렇게 하여 연산량은 늘어나지만 컴퓨터가 우연적 요소에 흔들리지 않도록 학습시키는 것을 강건성을 확보한다고 말하며, 강건성을 확보함으로써 예측의 정확도가 비약적으로 향상된다고 합니다. 실제로 2012년 구글의 고양이 인식 딥 러닝 프로젝트에서는 16,000개의 컴퓨터 프로세서와 10억 개 이상의 신경망을 이용하여 유튜브에 업로드 되어 있는 천만 개가 넘는 비디오 중 고양이 인식에 성공하였다고 합니다(그림12).


noname12.jpg

그림 12. 딥 러닝에 의한 이미지 인식 

 


특징표현학습

 

  과적합 문제를 해결하여 예측 정확도를 비약적으로 향상시킨 것 외에 딥 러닝이 획기적인 평가를 받는 또 다른 이유는, 딥 러닝이 인공지능 분야에서 지금까지 풀리지 않은 '특징표현을 컴퓨터 스스로가 획득한다'라는 문제에 하나의 답을 제시했기 때문이라고 합니다. 지금까지 인공지능이 실현되지 않은 것은 '세계에서 어느 특징에 주목해서 정보를 꺼내야 할까'에 관해 인간의 손을 빌리지 않으면 안 되었기 때문이며, 컴퓨터가 주어진 데이터로부터 주목해야 할 특징을 스스로 찾을 수만 있으면, 기계학습에 있어서의 '특징 설계' 문제를 해결할 수 있다는 것입니다. 인공지능의 난제 중 하나인 심볼 그라운딩 문제도 마찬가지입니다. 지금까지 인공지능이 각양각색인 문제에 직면하고 있었던 것은 개념을 스스로 획득할 수 없었기 때문이며, 컴퓨터가 데이터에서 특징을 꺼내고 그것을 사용한 '개념'을 획득한 후에, 거기에 '이름'을 주면 심볼 그라운딩 문제는 처음부터 발생하지 않는다는 것입니다. 딥 러닝은 비지도 학습(오토인코더)’을 통해 특징을 만들고 마지막에 지도 학습을 통해 이름과 연관을 짓습니다. 하지만 여기서 습득한다고 말하는 개념에 대해 생각해 볼 필요가 있습니다. 예컨대 손 글씨 인식의 경우 손 글씨 이미지를 통해 스스로 ‘3’이라는 글자의 특징을 알게 되는 데, 이를 개념 획득이라 부르고, 여기에다 ‘3’이라는 이름을 붙인다는 것입니다. 여기서 컴퓨터가 알게 된 것은 ‘3’이라는 추상화된 숫자의 개념이 아니라 ‘3’이라는 글자 모양의 특징이라는 것에 유의해야 합니다. 이는 개념 획득이라기보다는 지각 능력 향상 혹은 지각 자동화로 부르는 것이 정확한 표현이라 생각합니다. 실제로 현재 인공지능 붐을 일으킨 핵심 분야는 이미지 처리(패턴 인식)나 음성 인식 등 주로 지각 분야라는 것을 냉정히 돌아볼 필요가 있습니다.


  이 외에도 합성곱 신경망이니 순환 신경망이니 하는 더 어렵고 복잡한 모델도 존재하며 지금도 딥 러닝 연구는 지속적으로 발달하고 있는 것으로 보입니다. 특히 구글 딥 마인드에서 개발한 바둑 프로그램 알파고는 딥 러닝 버전 2.0이라고도 불리는 파블로프의 개 원리를 이용한 깊은 보상학습을 이용한다고 하며 합성곱 신경망을 48층으로 쌓았다고 하는데 전문적 내용이라 이해가 힘들어 보입니다.

 


딥 러닝의 미래

 

noname13.jpg

그림 13. 딥 러닝 앞의 연구


 딥 러닝의 미래에 대해서는 두 가지 의견이 있다고 합니다. 첫째는 일시적 유행에 그칠 것이라는 의견입니다. 1,2차 인공지능의 붐처럼 어떤 한계를 넘지 못하고 수면 아래로 가라앉을 수 있다는 것입니다. 둘째는 특징을 스스로 획득한다는 것을 무기로 삼아 한계를 돌파할 것이라는 것입니다. ‘인공지능과 딥 러닝의 저자 마쓰오 유타카는 딥 러닝 앞의 연구로 6단계를 제시하며 2030년경 6단계에 도달할 것이라는 조금은 낙관적 전망을 펼칩니다(그림13). 1) 이미지의 특징표현과 개념획득(현재 수준) 2) 멀티 모달(시각, 청각, 압력 등 복수감각의 데이터 조합) 특징표현과 개념획득 3) 행동과 결과의 특징표현과 개념획득 4) 일련의 행동을 통한 현실 세계에서의 특징 추출 5) 언어와 개념의 그라운딩 6) 언어를 통한 지식 획득(인간을 넘는다?). 현재 딥 러닝의 특징표현과 개념획득 기술을 기반으로 언어를 통한 지식 획득까지 넘보고 있습니다. 하지만 상호작용과 기호(언어)를 통한 공동일반화와 추상화를 이용하여 진정한 개념을 획득(물론 개념 자체도 발달함)하는 인간의 능력을 외적 특징파악(그것도 현재는 주로 지각)의 단순한 확장으로 보는 것은 문제가 있어 보입니다. 개념이 있으면 언어는 언제나 존재한다는 말도 있지만, 역으로 인간의 상호작용 속에서 언어가 개념에 영향을 끼치며 개념은 발달합니다.

 

  그러면서도 마쓰오 유타카는 인간과 인공지능의 차이점을 지적합니다. 인공지능이 발달하면 인간과 같은 개념을 가지고 같은 사고를 하고, 인간과 같은 자아나 욕망을 갖는다는 생각을 하는 경향이 있는데, 실제로는 그렇지 않다는 것입니다. 인공지능은 인간과 같은 신체, 문법, 본능을 가지고 있지 않기 때문에 인간이 사용하는 개념을 정확하게 이해할 수 없으며, 같은 이유로 컴퓨터가 스스로 만들어 낸 개념은 인간의 개념과 다를 수 있다는 것입니다. 예컨대 인공지능에게 초음파를 학습시켜 특징을 찾아나게 한다면 그 때 인공지능이 획득하는 개념은 인간보다 박쥐나 돌고래에 가까운 것이지 않을까요? 천문학에서 인간이 볼 수 없는 X, 자외선, 적외선, 전파 영역의 사진으로 인공지능을 학습시킨다면 인간의 도구로서 인공지능은 새로운 특징이나 패턴을 찾아 제시해 줄 수도 있을 것입니다. 즉 인공지능에 대한 인간 중심적 사고를 지적하고 있습니다. 또한 마쓰오 유타카는 인간 사회에서 현실 세계의 사물의 특징이나 개념을 표현하는 작업이 사회 안의 모든 사람들의 의사소통을 통해 공동으로 이루어진다는 점을 지적하고 있습니다. 이는 현재의 특징표현 학습에 의한 추상화를 넘어 인공지능에 있어 주체 간 정보 교환의 문제(공동일반화)를 제기하는 것으로 보입니다. 또한 인간은 인공지능과 달리 생명을 가진 존재임을 지적하며 인간을 지능만으로 환원하는 문제를 지적하고 있습니다. 지능 창조와 생명 창조의 문제가 다른 차원의 문제임을 지적하는 것입니다. 앞으로의 인공지능 연구는 인간의 본능(감정, 정서)과 생명(진화, 발달)에 대한 이해와 함께 진행되어야 할 것입니다. 여기에 이와 관련 있는 위키백과딥 러닝 항목에서 찾은 딥 러닝과 인간두뇌 글의 일부를 직접 인용합니다. “인간의 인식 발달 및 진화와 관련하여 딥 러닝의 중요성은 많은 과학자들의 관심을 끌고 있다. 가까운 영장류 동물들과 인간이 차별화되는 부분 중 하나는 바로 발달 시기이다. 다른 영장류 동물들의 뇌가 출산 전에 거의 완성되는 반면에, 인간의 뇌는 비교적 출산 후에도 계속 발달하는 편이다. 그래서 인간의 경우 뇌가 발달되는 중요한 시기 동안 세상 밖의 훨씬 더 복잡한 경험에 노출될 수 있다. 이러한 현상은 인간이 다른 동물들에 비하여 빠르게 변화하는 환경에 더 잘 적응할 수 있도록 만든다. 이러한 변화의 정도는 대뇌피질 발달에 반영되기도 하고, 또한 두뇌의 자기조직화 시기에 자극적인 환경으로부터의 정보 추출에 변화를 준다. 물론, 이러한 유연성은 인간이 다른 동물들에 비해 긴 미성숙기(보호자에게 도움을 받고 훈련을 받아야 하는 의존적인 시기)를 가지게 된 원인이기도 하다. 딥 러닝의 이런 이론들은 결국 인간 진화의 기본적인 조건으로서 문화와 인식의 공진화를 보여준다.”

 


인공지능의 산업적 이용

 

  여기까지 현재 인공지능의 원리와 실제에 대한 논의를 마치고, 산업적 이용의 현황을 살펴보겠습니다. 현재 이용되는 기술에 대해 자세히 살펴보면 인공지능 연구 자체보다는, 실제적인 이윤 창출을 위해 현재 가능한 기술 내에서 구체적인 사업 모델을 상정하고 추진한다는 것을 알 수 있습니다. 우리에게는 생소하지만 넷플릭스라는 미국의 주문형 인터넷 스트리밍 미디어 제공회사가 있습니다. 한 마디로 인터넷 비디오 대여 사업을 하는 것으로 보입니다. 급속히 성장하고 있는 이 회사는 이용자가 만족할 확률이 높은 영화 추천 시스템을 만들기 위해 방대한 데이터 세트(이용자, 영화명, 별점)를 이용한 기계학습 예측 시스템을 이용한다고 합니다. 사용자들이 입력한 별점 점수가 광고를 위한 시스템 학습에 이용되고 있는 것입니다. 구글의 검색엔진이 페이지 랭크라는 기술을 기반으로 하고 있다는 것은 잘 알려진 사실입니다. 이 기술은 기본적으로 텍스트(문자 데이터)만을 대상으로 합니다. 하지만 인터넷에서 이미지와 영상 자료가 증가함에 따라 태그(이름표나 제목)없이 이미지나 영상을 검색하는 기능의 중요성이 점차 증가하고 있습니다. 따라서 구글이 딥 러닝을 이용하여 고양이 이미지 인식을 연구한 것은 구글의 입장에서 매우 중요한 일로 보입니다. 페이스북도 마찬가지입니다. 자체 수익의 90%를 차지하는 광고 수익을 높이기 위해 아이템 추천 기능에 딥 러닝을 이용하려고 하고 있고, 이를 위해 개발한 딥 페이스라는 얼굴 인식 시스템은 그 인식 정확도가 거의 사람 수준에 다다랐다고 합니다. 페이스북에서 자꾸 사진 얼굴에 누구인지 태그를 달라고 하는 이유를 알 것 같습니다. 또한 나도 모르게 찍힌 사진을 보고 페이스북이 누군지 알고 있다는 사실에 유쾌하지 않은 기분이 드는 것은 저 뿐만은 아닐 것입니다. 또 하나의 공룡 기업 마이크로소프트는 스카이프(인터넷 전화 프로그램)로 실시간 통역 서비스를 제공하려고 연구 중이고, 중국의 구글이라 불리는 바이두는 인공지능 음성인식 시스템인 딥 스피치를 발표하여 음성검색에 활용한다고 합니다. 지금도 스마트폰에 음성검색이 있지만 많이 쓰이지는 않는 것 같습니다. 하지만 기계에게 말로 명령을 내릴 수 있다는 편리함 때문에 그 활용범위는 점점 넓어질 것이라는 예상이 됩니다. 전통적 강자 IBM은 이미 딥블루와 왓슨(음성인식 및 자연어 처리, 질문 이해와 답 추론)으로 유명하고, 애플은 인공지능 비서 시리이후에 뒤처져 있는 듯 보입니다. 그 외 각종 스타트업 기업들이 다양한 분야(알고리즘 개발, 시각, 청각, 의료, 유전자 분석, 주가 예측 등)에서 인공지능 기술을 이용하여 이윤을 창출하려는 다양한 비즈니스 모델을 개발하고 있습니다.

 


인공지능(=인지자동화) 논의의 단상

 

  서두에서 이미 간단히 이야기했지만, 지금까지의 논의를 통해 본 인공지공에 대한 몇 가지 단상을 이야기해 보겠습니다.

 

  첫째 현재로서 인공지능은 존재하지 않습니다. 체스보다 바둑이 훨씬 경우가 수가 많고 복잡하여 알파고의 승리를 딥블루의 승리보다 훨씬 대단한 것으로 보기도 하지만, 바둑과 체스는 근본적 차이가 없다는 의견도 존재합니다. 똑같이 연산이고 원리적으로 지능이 필요하지 않다는 것입니다. 지능은 두뇌의 작용이고 두뇌는 신경세포들의 집합인 신경망입니다. 복잡성 이론에 따르면 이러한 계에서 신경세포들의 상호작용으로 뭔가 새로운 기능이 전체 집단의 성질로 나타납니다. 알파고는 인공신경망을 사용했는데, 인공신경망과 두뇌에는 아직 중요한 차이가 있다고 봅니다. 합성곱 신경망이든 순환 신경망이든 결국 사람이 설계해야 합니다. 그러나 두뇌는 생성과 소멸이 가능한 뉴런을 통해 외부로부터 정보를 받아들여 학습하면서 스스로 변하여 설계가 이루어진다는 것입니다. 또한 진정한 지능의 핵심은 창조적 능력인데 현재의 인공적 설계로는 불가능하다는 의견이 있습니다. 다만 특정한 작업에서 사람보다 뛰어난 성능을 보이고 있는 것입니다. 결국 현재의 인간 대 기계의 대결 구도는 인간 대 인간의 문제를 호도하고 있는 것입니다. 이세돌 9단은 기계가 아니라 다른 인간에게 진 것이라는 것입니다. 현재 많은 인공지능의 논의는 가상의 인공지능의 출현을 상정하고 두려워하고 있는 면이 있습니다. 소위 약한 인공지능, 강한 인공지능이라는 말을 정확히 구분할 필요가 있습니다. 우리가 걱정하는 것은 실제로 강한인공지능인데, ‘약한을 접두어로 붙인 인공지능이라는 말로 마치 인공지능이 벌써 온 것처럼 헷갈리게 만들고 있는 측면이 있습니다. 실제로 대다수 논의에서는 현재의 기술을 다루면서 약한이라는 말이 없이 그냥 인공지능이라는 말을 쓰고 있습니다. 현재로서 강한 인공지능이 불가능한 이유는 분명해 보입니다(아직도 정신, 감정, 창의성, 자아를 뇌과학으로 이해하지 못하고 있습니다). 현재의 기술로 인공지능의 구현은 불가능하며, 현재의 기술을 인공지능이 아닌 인지자동화’(김대식 저 인간 vs 기계에서 따옴)등으로 바꾸어 부르는 것이 타당해 보입니다.

 

  둘째로 인공지능 발달로 예견되는 사회적 문제에 대해 이야기해 보겠습니다. 현재 이 논의가 진행되는 방식을 보면 많은 부분에서 기업, 국가, 사회의 대응 문제를 개인의 대응 문제로 환원하고 있다는 생각이 듭니다. 특히 일자리 문제가 그렇습니다. 인공지능 발달에 따른 일자리 감소를 사회적 차원에서 대책을 세울 문제로 다루기보다는, 개인이 대비해야 하는 문제로 치환하여 공포감을 불러일으키고 있습니다. 왜 우리는 인공지능 발달이 가져올 편리함을 생각하기보다 직업을 잃게 될지 모른다는 위기감을 떠 올리게 되는 걸까요? 기계의 발달로 인간의 삶이 나아지기보다 왜 삶은 더 팍팍해 지는 걸까요? 어쩌면 기계를 가상의 적으로 만들어 위기의 원인을 다른 곳으로 돌리고 있다는 생각이 들기도 합니다. 또한 지나간 역사에 1차 산업혁명이니 2차 산업혁명이니 하는 이름을 붙이는 것이 아니라, 이번에는 아직 오지 않은 변화에 4차 산업혁명이라는 이름을 선도적으로 붙이고 유난히 요란하게 떠든다는 느낌도 듭니다. 이는 현재가 전세계적인 자본주의적 위기 상황이라는 방증일 수 있으며, 4차 산업혁명에 대한 대응이 국가적 차원(미국, 독일, 일본 등)에서 이루어지는 것도 비슷한 맥락이라는 생각입니다. 예컨대 독일 벤츠사의 CEO2015벤츠는 절대로 애플의 폭스콘이 되지 않겠다.”고 말했습니다. 아마도 구글의 자율주행차를 염두에 두고 한 말인 것 같은데, 기술 발전에 따른 국가별 기업별 경쟁 격화를 드러내고 있습니다.

 

  맑스는 자본론에서 존 스튜어트 밀의 다음 말을 인용합니다. “지금까지 모든 기계의 발명이 그 어느 누구에게라도 그날그날의 수고를 덜어 주었는지 어떤지는 의문이다.” 이 인용문에는 다음과 같은 주석이 붙어있습니다. “밀은 다른 사람의 노동으로 살아가지 않는 그 누구에게라고 말했어야 했다. 왜냐하면, 기계는 팔자 좋은 게으름뱅이[자본가]의 수를 의심할 바 없이 대단히 증가시켰기 때문이다.” 맑스는 기계의 발명에 의한 부가 결국 어디로 갔는지에 대해 이야기하고 있습니다. 여기서 인공지능 기술 발달로 인한 고용 없는 성장, 한계비용 제로 사회에서 부(또는 잉여가치)의 문제를 다시 한 번 고찰해 볼 필요가 있다는 생각이 듭니다. 기계의 발달에 대한 맑스의 말은 인공지능의 세상에도 여전히 유효한가 말입니다. 1차 산업혁명 시기 러다이트 운동에 대해 많은 사람들은 변화의 물결을 거스르려는 노동자들의 어리석은 투쟁이었다고 평가하지만 그 누군가에게는 생존의 문제였던 것처럼, 지금의 4차 산업혁명의 물결 앞에서 어쩔 줄 몰라 하는 우리는 또 다시 휩쓸려갈 것이 아니라 사회 문제에 대한 새로운 전망을 세워야 할 것입니다.

 

  셋째 어쨌든 인지자동화 자체만으로도 사회적 파장은 매우 클 것입니다. 과거에 라디오와 TV가 출현했을 때, 얼마 전 인터넷과 스마트폰이 출현했을 때 그랬던 것처럼 말입니다. 그 때처럼 직업에도 영향을 미칠 것입니다. 인지자동화 기술을 이용한 기업들의 상품화 시도는 계속 이루어질 것이고 가시적 성과가 곧 나올 것으로 보이기 때문입니다. 꼭 강한 인공지능이 아니더라도 도구로서 인지자동화의 활용 범위는 점점 넓어질 것입니다. 이러한 변화에 따라 교육이 어떻게 변해야 하는가에 대한 많은 논의가 존재합니다. 코딩교육이 떠오르고, 인공지능에 맞서 인간 고유의 기능인 창의성을 키워야 한다는 말이 나오고 있습니다. 하지만 알다시피 창의성이나 인성은 별도로 집중적으로 교육되는 것이 아닙니다. 산업적 필요에 따라 코딩교육을 요구하기도 하지만, 보편교육 입장에서 코딩교육의 타당성을 검토해야 합니다. 과거 TV나 인터넷이 처음 등장했을 때 섣부르게 학교가 사라질 것처럼 생각한 이들도 있었으나 학교는 아직도 존재합니다. 현재의 인공지능 기술 발달에 따라 자유의지를 가진 주체적 인간 형성이라는 교육 본연의 목적은 별로 달라질 것이 없어 보입니다. 인공지능이 인간을 대신해 주는 일이 있다면 그 만큼 도구로 사용하면 된다고 생각합니다. 우리가 더 이상 말 타는 법이나 주판을 배우지 않고 자동차를 타고 계산기를 이용하는 것처럼 말입니다. 단 앞으로 인지자동화 기술이 인간의 인지 자체에 어떤 영향을 끼치는지에 대한 검토가 필요하다는 생각이 듭니다. 도구적 성격을 지닌 자율주행차, 드론, 공장자동화 로봇보다 교육적 입장에서 더 중요한 것은 어쩌면 인간 자신의 지적 기능에 미치는 기호적 성격을 지닌 인지자동화 기술일 것이기 때문입니다.

 

  

<참고 문헌>

 

1. (알고리즘으로 배우는) 인공지능, 머신러닝, 딥러닝 입문 김의중 지음

2. 인공지능과 딥러닝: 인공지능이 불러올 산업 구조의 변화와 혁신 -마쓰오 유타카 지음; 박기원 옮김

3. 텐서플로 첫걸음: 회귀분석, 군집화, 합성곱 신경망까지 딥 러닝 제대로 입문하기 -조르디 토레스 지음; 박해선 옮김

4. 인간 vs 기계 : 인공지능이란 무엇인가 김대식 지음

5. 2016서울미래교육포럼 자료집 인공지능시대의 이해와 서울미래교육중 기조강연 인공지능과 창의성 : 과학과 교육’ -최무영(서울대 물리천문학부 교수)

6. 인터넷 위키백과, 나무위키 : 신경세포(뉴런), 딥러닝, 기계학습 등






04-기획.PDF 

진보교육64호_기획_1.인공지능의원리와실제.hwp

번호 제목 글쓴이 날짜 조회 수
1074 [특집] 2017 상반기 교육정세와 대선_ 2. 2017년 대통령 선거와 교육체제 개편 file 진보교육 2017.04.06 194
» [기획]인지자동화와 비고츠키_ 1. 인공지능(=인지자동화)의 원리와 실제 file 진보교육 2017.04.06 562
1072 [기획] 인지자동화와 비고츠키_ 2. 비고츠키의 유물변증법적 인지이론으로 바라보는 '인지자동화' 문제 file 진보교육 2017.04.06 308
1071 [기획] 인지자동화와 비고츠키_ 3.인지자동화 시대, 비고츠키교육학으로 본 '역량'의 문제 file 진보교육 2017.04.06 281
1070 [만평] 처음이다 file 진보교육 2017.04.06 337
1069 [담론과 문화] 정은교의 몽상록_ 혁명이 굼벵이처럼 기어가는 시절의 넋두리 file 진보교육 2017.04.06 211
1068 [담론과 문화] 타라의 문화비평_ 태극기가 바람에 부대낍니다 file 진보교육 2017.04.06 321
1067 [담론과 문화] 한송의 미국생활 적응기_ Welcome to Philadelphia ! file 진보교육 2017.04.06 243
1066 [담론과 문화] 진보! 나무 꽃!_ 진보! 나무 꽃! 첫번째 file 진보교육 2017.04.06 259
1065 [담론과 문화] 수지클리닉 이야기_ 우리 아이들 - 한 달 간의 관찰교류기 file 진보교육 2017.04.06 210
1064 [교단일기] 416 기억 수업 file 진보교육 2017.04.06 255
1063 [교단일기] '17강림44' 교실에서 보내는 편지 file 진보교육 2017.04.06 274
1062 [권두언] 촛불혁명, 민주주의를 말하다 file 진보교육 2016.12.20 258
1061 [특집] 2017 한국사회 전망과 교육노동운동의 방향 : 1. 격변의 시대 - 한국사회의 새로운 재편의 길로 file 진보교육 2016.12.20 269
1060 [특집] 2017 한국사회 전망과 교육노동운동의 방향 : 2. 전교조 선거결과의 의미와 교육노동운동의 향후 투쟁방향 file 진보교육 2016.12.20 369
1059 [기획] 1. 핵심역량과 '발달-해방'의 교육 file 진보교육 2016.12.20 955
1058 [기획] 2. 학력 개념을 정립하자 file 진보교육 2016.12.20 560
1057 [기획] 3. 구성주의 교육학과 신자유주의 file 진보교육 2016.12.20 630
1056 [담론과 문화] 송재혁의 음악비평 - '순진한 바보', 세상을 구하다 file 진보교육 2016.12.20 427
1055 [담론과 문화] 정은교의 몽상록 - 마른 잎 다시 살아나 - 역사 공부에 대한 잡설 file 진보교육 2016.12.20 429