인공 지능의 AI 역사
AI 인공지능의 역사를 살펴보자. 우선 1차 AI 붐의 시대는 앨런 튜링을 빼놓을 수 없다. Alan Turing은 “인공 지능의 아버지”라고 불립니다. Alan Turing은 기계가 생각할 수 있는지 여부를 테스트하는 방법을 제시했습니다. 이 때문에 이전의 기계는 계산을 처리하는 도구에서 기계가 생각할 수 있는지 여부에 대한 방법론을 확립함으로써 생각할 수 있는 기계를 개발할 수 있는 가능성을 창출하는 중요한 계기가 되었다.
두 번째 AI 붐은 전문가 시스템이 사용되던 시기였습니다. 이 시기는 1980년대와 1990년대에 발전했습니다. 즉 인공지능도 이 시기에 컴퓨터의 보급과 병행하여 발전했다고 할 수 있다. 이 시대의 특징은 인공지능이 전문가들에 의해 개발되고 사용되었다는 점이다. 즉, 전문가들이 직접 자신의 지식을 공급하고 단단하고 빠른 규칙을 만들어 작동하는 시스템을 만든 시대였습니다.
당시 인공지능 기술을 활용한 전문가들은 매우 정확하고 상세한 데이터를 입력하고 인공지능 시스템을 활용하기 위한 규칙을 만들었다. 그 당시 많은 문제가 발생했습니다. 다른 유형의 인공 지능 개발에서 문제로 표준화되지 않았습니다. 따라서 시스템을 많이 제작하여 효율이 떨어지는 문제가 있었다.
첫 번째 문제는 소규모 시스템에 비효율적이라는 것입니다. 각 전문가가 개별적으로 시스템을 개발해야 하는 문제로 인해 수많은 시스템이 개발되었고 이는 개발 시간과 비용에 비해 비효율적이었습니다.
두 번째 문제는 대규모 시스템의 개발 및 유지 관리 비용이 높다는 것입니다. 대규모 시스템을 개발하기 위해서는 막대한 개발비가 필요하고 개발 후 유지관리가 매우 어렵다. 그럼에도 불구하고 지금은 인공지능이 큰 기술적 변화를 겪은 시대다.
제3차 AI 붐은 현 시대라고 할 수 있다. 요즘 인공지능과 빅데이터에 대한 이야기를 많이 듣습니다. 2000년대 들어 인공지능 기술이 급속도로 발전했기 때문이다. 물론 최근 인공지능 기술의 발전은 머신러닝과 딥러닝의 기술 발전이다.
머신러닝과 딥러닝을 간단히 설명하면 기존의 전문가 시스템에서는 전문가가 자신의 지식이나 정보를 입력해 인공지능을 개발하는 단계에서 현재의 인공지능은 학습 가능한 데이터를 제공하고, 인공지능은 스스로 학습할 수 있다. 차이점은 학습을 통해 인공지능 시스템을 개발한다는 점이다. 즉, 현재 인공지능 기술의 특징은 스스로 학습한다는 것이며, 사람이 학습 가능한 데이터를 제공하면 자신에게 제공된 데이터로부터 학습하고 의사결정을 할 수 있는 인공지능 구현 방식으로 진화한 것이다. .
그 결과 인공지능의 발달과 함께 빅데이터와 데이터 처리 기술이 함께 발전해 왔다. 2000년대의 가장 큰 특징은 컴퓨터의 눈부신 발전이다. 예전에는 복잡한 계산을 위한 고성능 컴퓨터를 구하기 어려웠지만 컴퓨터의 발달로 복잡한 계산이 가능해졌습니다. 또한 인공지능 학습을 위해서는 고성능 컴퓨터와 GPU가 필요하고, 컴퓨터 기술과 클라우드 시스템의 발달로 인공지능 기술이 발전하고 있다.
GPU는 Graphics Processing Unit의 약자로 컴퓨터 시스템에서 그래픽 작업을 빠르게 처리하는 데 사용되는 컴퓨팅 장치입니다. 이러한 GPU는 많은 작은 단위 작업을 수행할 수 있는 코어로 구성됩니다. AI가 학습하고 GPU를 사용하면 이러한 여러 개의 작은 단위 코어가 빠르게 공유하고 학습하므로 빠른 학습이 가능한 원리입니다.
따라서 GPU의 유무에 따라 인공지능의 학습 속도가 달라진다. 현재 인공지능 기술은 많은 데이터와 고속 하드웨어를 결합해 컴퓨터가 스스로 학습할 수 있는 단계에 있으며, 학습 결과를 스스로 판단하고 처리할 수 있는 인공지능을 구현할 수 있다. 인공지능을 이해하기 위해서는 빅데이터와 클라우드 관련 기술에 대한 이해가 필요하다.