일러스트=이미지투데이.
일러스트=이미지투데이.

‘복면가왕’이라는 TV 프로그램을 알고 계신가요. 참가자가 특수 제작한 가면을 쓰고 나와 노래를 부르고, 대중들은 참가자의 정체를 알지 못한 채 실력으로만 평가하는 프로그램입니다.

인공지능도 이와 비슷한 평가 방법이 있습니다. 바로 ‘튜링 테스트(Turing test)’입니다. 튜링 테스트는 1950년 영국의 수학자 앨런 튜링이 제안한 테스트입니다.

질문자는 상대방이 컴퓨터인지 사람인지 모르는 채로 여러 질의응답을 통해 상대방과 대화합니다. 이때, 질문자의 30% 이상이 답변하는 주체가 컴퓨터인지 알지 못할 때 튜링 테스트를 통과할 수 있습니다.

튜링 테스트는 많은 사람에게 ‘기계는 인간처럼 사고할 수 있는가’라는 생각을 하게 했고, 수많은 연구로 인해 현재 인공지능은 사람과 자유롭게 대화를 나누고, 문제를 처리할 정도로 발전하게 되었습니다. 이렇게 되기까지 과연 인공지능은 어떤 역사를 겪어왔을까요.

인공지능, 거대한 흐름의 시작

인공지능은 인간의 사고능력을 인공적으로 구현하는 컴퓨터 과학의 분야 중 하나입니다. 처음으로 인공지능의 개념을 확립하게 된 것은 1956년에 열린 ‘다트머스 회의’라고 볼 수 있습니다.

다트머스 회의는 세계적인 과학자인 존 매카시(John McCarthy)를 필두로 다트머스 대학에서 개최된 학술회의입니다. 이때 존 매카시가 수십명의 과학자에게 생각하는 능력을 갖춘 기계 연구를 제안하면서 ‘인공 지능(Artificial Intelligence)’이란 용어가 처음 쓰였고, 다트머스 회의에 초대받은 과학자들은 인공지능에 대해 활발한 토론과 연구를 진행했습니다.

이렇게 많은 과학자들이 관심을 가지고 연구한 인공 지능은 발전하는 과정에서 수많은 암흑기와 발전기를 겪어왔습니다. 먼저, 인공지능 학습 방법인 머신러닝과 딥러닝에 대해 알아보겠습니다.

학습능력을 부여하는 ‘머신러닝’

머신러닝은 1959년 아서 사무엘(Arthur Lee Samuel)에 의해 정의된 용어입니다. 명시적으로 프로그램을 작성하지 않고 컴퓨터에 학습할 수 있는 능력을 부여하기 위한 연구 분야입니다.

다양한 분야에 적용되고 있는 머신러닝 시스템을 분류하면 크게 세 가지로 나눌 수 있습니다.

첫째, 지도학습은 입력값과 결과값을 주고 학습시키는 방법으로, 주로 데이터분석에서의 분류와 회귀분석에서 활용됩니다. 과거 데이터를 기반으로 향후 있을 사건 혹은 이벤트를 예측하는데 이용됩니다. 대표적인 활용 예로, 기존 부동산 시장의 데이터를 기반으로 향후 집값을 예측한다거나, 기존 날씨 데이터를 기반으로 강우 및 기상 상황의 예측, 그리고 기존 고객의 데이터를 바탕으로 고객 이탈을 예측합니다.

둘째, 비지도학습은 결과값 없이 입력값만 주고 학습하는 방법으로, 데이터를 탐색하여 내부 구조와 유사한 속성을 파악합니다. 군집화 즉, 그룹화를 통해 유사한 속성끼리 분류하고, 그룹화된 유사성을 근거로 속성을 파악합니다. 구매 행동에 따른 고객을 그룹화하거나 여러 사진에서 비슷한 객체를 분류하는 등의 예가 대표적입니다.

셋째, 강화학습은 결과값이 아닌, 보상을 주어 최선의 행동을 할 수 있도록 학습하는 방법입니다. 주로 로봇 및 게임, 내비게이션에 이용되며, 일정한 시간 내에 예상되는 보상을 극대화할 수 있는 동작을 선택하도록 합니다. 대표적으로 알파고의 학습에 강화학습이 이용되었습니다.

인공신경망을 이용하는 ‘딥러닝’

딥러닝이라는 용어는 2006년 제프리 힌튼(Geoffrey Hinton)이 논문에 DNN(Deep Neural Network)이라는 용어를 사용하면서 정립되었지만, 이전부터 딥러닝의 기반이 되는 연구는 지속되어 왔습니다. 그 중 퍼셉트론(Perceptron) 연구는 딥러닝의 발전에 큰 영향을 미쳤습니다.

퍼셉트론은 프랑크 로젠블라트(Frank Rosenblatt)가 1957년에 제안한 초기형태의 인공신경망(Artificial Neural Network, ANN)입니다. 인공신경망은 인간의 뉴런 구조를 모방한 네트워크 구조를 의미하며, 단층 퍼셉트론에서 다층 퍼셉트론으로 발전했습니다.

단층 퍼셉트론은 다수의 인풋(input)을 통해 하나의 아웃풋(output)을 내는 알고리즘입니다. 이러한 단층 퍼셉트론은 입력 데이터를 선형(AND, OR 등)으로 분류했기 때문에 비선형 분류인 XOR 게이트 연산(배타적 논리합)을 할 수 없었습니다. 이 한계를 극복하기 위해 연구된 것이 다층 퍼셉트론(Multi-layer Perceptron, MLP)입니다. 다층 퍼셉트론은 단층 퍼셉트론의 한계를 보완하기 위해 등장했습니다. 단층 퍼셉트론의 input과 output의 사이에 은닉층(hidden layer)을 추가하여 단층 퍼셉트론보다 더 정확하게 분류할 수 있습니다.

그러나 기울기 소실(Vanishing Gradient)과 오버 피팅(Overfitting)의 문제가 있습니다. 다층 퍼셉트론은 복잡한 문제를 해결하기 위해선 은닉층을 늘려야 하는데, 은닉층이 늘어날수록 기울기(gradient)가 사라져 학습이 되지 않는 기울기 소실 현상이 발생합니다. 또한, 은닉층의 추가로 다층 퍼셉트론이 복잡해질수록 새로운 데이터에 대해서는 정확성이 떨어지는 오버피팅 문제도 발생합니다.

그러나 2006년 제프리 힌튼이 가중치의 초기값을 바르게 설정하면 심층신경망을 이용해 학습이 가능하다는 것을 밝혀내고 딥러닝의 연구는 다시금 활기를 찾게 됩니다. 현재 딥러닝은 충분히 깊어진 심층신경망을 조합하여 러닝 모델로 사용하는 것을 의미합니다.

저작권자 © 대한데일리 무단전재 및 재배포 금지