티스토리 뷰

IT scrap

인공지능

Fine Dust 2022. 11. 10. 09:53

인공지능() 또는 A.I.(Artificial Intelligence)는 일반적으로 인간의 학습능력, 추론능력, 지각능력이 필요한 작업을 할 수 있도록 컴퓨터 시스템을 구현하려는 컴퓨터과학의 세부분야 중 하나이다. 인간을 포함한 동물이 갖고 있는 지능 즉, natural intelligence와는 다른 개념이다.

지능을 갖고 있는 기능을 갖춘 컴퓨터 시스템이며, 인간의 지능을 기계 등에 인공적으로 시연(구현)한 것이다. 일반적으로 범용 컴퓨터에 적용한다고 가정한다. 이 용어는 또한 그와 같은 지능을 만들 수 있는 방법론이나 실현 가능성 등을 연구하는 과학 기술 분야를 지칭하기도 한다.

 

인간의 인지·추론·판단 등의 능력을 컴퓨터로 구현하기 위한 기술 혹은 그 연구 분야 등을 총칭하는 용어로 사용된다. 컴퓨터와 같은 기계는 인간에 비해 제어, 연산 등의 능력이 뛰어나지만, 사람이 가지고 있는 지능을 기반으로 하는 인지·추론·판단 등의 능력은 가지고 있지 않다. 이러한 사람 고유의 능력을 컴퓨터에서 구현해 보고자 시작된 것이 인공지능이다.

1956년 존 매카시(John McCarthy, 1927~2011)가 '인공지능'이라는 용어를 사용하기 시작했지만, 유사한 학문은 그 이전에도 존재하였다. 1943년 워런 맥컬로치(Warren McCulloch, 1898~1969)와 월터 피츠(Walter Pitts, 1923~1969)에 의해 사람의 뇌를 기반으로 하는 연구가 있었으며, 1950년에는 튜링 테스트(Turing Test)로 알려져 있는 앨런 튜링(Alan Turing)에 의해 생각하는 기계를 검증하기 위한 테스트도 이루어졌다.

인공지능의 역사

인공지능의 역사는 크게 1차 암흑기와 2차 암흑기를 중심으로 구분된다. 1956년 존 매카시의 인공지능을 시작으로, 최초의 인공신경망 알고리즘인 퍼셉트론(Perceptron)과 뒤이어 기계학습(ML, Machine Learning) 등이 등장하면서 인공지능은 1차 부흥기를 맞이하게 된다. 하지만 퍼셉트론의 근원적 한계였던 XOR 선형분리 문제로 인해 인공지능에 대한 연구는 1차 암흑기를 겪게 되었다.

XOR 선형분리 문제란 0과 1의 XOR 진리표에 대한 선형분리가 불가능하다는 것을 의미하는데, 이후 다층 퍼셉트론(Multi-Layer Perceptron)의 등장과 신경망을 재학습시키는 역전파(Back Propagation) 알고리즘의 등장으로 이 문제가 해결되면서, 인공지능은 2차 부흥기를 맞이하게 된다. 하지만 수학적 미분을 이용한 경사 하강법(Gradient Descent)에서의 기울기가 소멸하는 문제와 실제 결과 값이 더욱 나빠지는 현상인 오버피팅(Overfitting) 등이 발생하였고, 이러한 인공지능 학습을 위해 전제되는 고성능 하드웨어와 대량의 시험 데이터 부족 등으로 인공지능은 2차 암흑기를 겪게 된다.

인공지능의 현재

2차 암흑기로 침체되어 있던 인공지능은 1980년대 후반 월드와이드웹(WWW, World Wide Web)의 출현과 이로 인한 대용량 데이터인 빅데이터(BigData)의 등장으로 인공지능 시험을 위한 데이터 부족 현상이 보완되었다. 1990년대에는 컴퓨터 하드웨어의 급속한 발전과 인공지능 병렬 프로세스 처리에 최적화된 GPGPU(General-Purpose Graphics Processing Unit) 아키텍처의 출현 등으로 고속 병렬처리가 가능해졌다. 특히 2000년대에는 인공신경망 알고리즘을 획기적으로 개선한 딥 러닝(Deep Learning)이 등장하였으며, 이를 바탕으로 하는 알파고(AlphaGo)의 출현은 인공지능이 더 이상 희망이 아닌 현실로 한 걸음 다가왔음을 보여주는 사례가 되었다. 현재의 인공지능은 급격한 변화와 발전을 거듭하고 있는 과도기로, 우리 사회 전반의 영역에서 다양하게 시도·활용되고 있다.

인공지능의 주요 응용분야

· 인공신경망(, Artificial Neural Network) : 인간의 생물학적인 신경 세포의 정보 처리 과정을 모방하여 뇌와 유사하게 구현한 모델로, 인공지능의 가장 기본이 되는 분야이다.
· 자연어 처리(Natural Language Processing) : 인간의 언어를 분석해서 컴퓨터가 이해할 수 있는 형태로 처리하기 위한 과정으로, 컴퓨터와 사람 간에 자연스러운 대화를 가능하게 하는 분야이다. 인공지능 스피커나 챗봇(Chat Bot) 서비스 등에 적용된다.
· 컴퓨터 비전(Computer Vision) : 영상 전처리를 통해 인간의 시각()을 실시간으로 이해하고 표현하기 위한 분야이다. 로봇으로 수집된 영상 정보를 통해 인지·판단 등을 가능하게 하며, 사람 눈의 기능을 기계에 접목시켜 실시간 자율주행이 가능하게 한다.
· 로봇공학(Robotics) : 로봇에 관한 분야로 인공지능이 집대성된 영역이기도 하다. 로봇 설계 및 제작에서부터 인지·추론·판단 능력과 같은 인간이 가지고 있는 기능을 접목하는 분야까지도 다룬다.

인공지능과 윤리

인공지능의 발전과 더불어 제기되고 있는 것이 인공지능의 윤리 문제이다. 가령 인공지능 로봇 개발자에 의해 남녀차별이나 인종차별과 같은 편향된 알고리즘이 삽입된다면, 인공지능 로봇 역시도 이러한 편향된 생각을 가지게 될 것이다. 이러한 점에서 인공지능의 기술적인 연구뿐만이 아닌 윤리적인 측면에 대한 올바른 정립이 필요하다.

이에 세계 각국의 주요 기관에서는 2017년 '아실로마 AI(Asilomar AI Principles)'라고 하는 23가지 원칙을 세워 인공지능을 인류에게 올바른 방향으로 발전시키기 위한 노력을 하고 있다. 또한 '설명가능 인공지능(eXplainable Artificial Intelligence)을 통해 인공지능의 동작 결과를 사람이 이해할 수 있도록 알고리즘 처리 과정을 명시할 것을 권유하는 등 인공지능 알고리즘에 대해서도 투명하게 관리하기 위한 노력을 기울이고 있다.

[나무위키] 인공지능

'IT scrap' 카테고리의 다른 글

4차 산업혁명이란?  (0) 2022.11.10
제5차 산업혁명  (0) 2020.07.14
머신러닝  (0) 2018.09.19
코드커팅 - 유선방송 끊고 온라인 스트리밍 서비스로  (0) 2017.12.29
장고 - 빠르고 확장성 높은 웹 프레임워크  (0) 2017.12.21
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함