현재의 인공 지능은 터미네이터 수준으로 갑자기 점프하지는 않을 것이다.

하지만 전투용 로봇이 이미 만들어져 사용되고 있다.

인공 지능은 특정 기능을 향상 시키는 수준이지만, 다양한 것들을 복합적으로 학습할 수준이되면 이야기는 달라진다.

언젠가 그 시절은 올 것이다.

 

규칙을 주입받은 인공지능: SVM(Support Vector Machine)

SVM은 데이터를 임베딩해 인공지능 데이터베이스에 추가하던 서포트 벡터를 갱신시키는 형태로 학습하는 인공지능이다.

 

인간 따라하기: 엔드 투 엔드와 인공신경망

어린 아이가 하듯 인간 두뇌가 하는 데이터를 처리하는 방식을 엔드 투 엔드라고 부른다.

입력한 데이터에 과도한 처리를 하지 않고, 데이터를 그대로 신경망에 넣어주고 답을 찾도록 만드는 것이다...

 

1958년 퍼셉트론이라는 인공신경망이 등장한다.

퍼셉트론은 코넬 대학교의 심리학자 프랭크 로젠블랫이 제안했다.

이는 입력-은닉층-출력 구조를 만들되, 은닉층이 단 1층뿐인 가장 단순한 형태의 인공신경망이었다...

이 시기에 은닉층이 여러 겹인 인공신경망을 심층(인공)신경망이라 부르게 되었으며,

각 인공 뉴런의 활성화 정도를 조정하기 위한 활성함수를 도입하기도 했다.

또한 이 시기에 심층신경망 학습 문제를 해결하는 아주 중대한 발견이 있었다.

딥러닝의 아버지라 불리는 제프리 힌튼이 1986년 역전파라는 학습 방법론을 발견한 것이다....

역전파 방법론은 인공 뉴런의 역할을 하나씩 찾아 일일이 조정해 주는 대신,

인공 신경망의 가장 킅부분인 출력단에서 입력단까지 반대 방향으로 오차를 전달해주는 방식이다.

 

2007년 NVIDA는 CUDA를 런칭한다.

NVIDA는 CUDA를 통한 프로그램이 최대한 기존 CPU 기반의 프로그래밍과 차이가 없도록 하기 위해

하위 호환뿐만 아니라 함수 이름을 뿥이는 것까지 세심히 살폈다.

 

인간 뇌의 중요한 기능 중 하나는 사물을 보건아 소리를 듣는 등 감각기관을 이용해 현실의 자극을 받아들인 뒤

이를 분석, 판단 하는 것이다. 이러한 것을 인식이라 한다.

 

인간의 뉴런은 여러 신호가 시간을 두고 도착하는 형태가 될 수 밖에 없다.

SNN(Spiking Neural Network)은 이런 차이를 개선하기 위해 제인된 인공 신경망 구조이다.

 

PiM은 Process-in Memory의 역자로, 말 그대로 메모리 안에서 무언가를 처리한다는 의미이다.

+ Recent posts