인공지능의 역사를 알아보자

인공지능의 역사를 알아보자
최근 몇년사이에 급속히 인공지능(AI)가 발달하고 있습니다. 특히 대량언어모델(LLM)의 발달로 급속히 모든 산업에 적용되고 있는 상황입니다. 또한 생성형 AI의 발달은 여러 직업의 형태와 향후 변화에 큰 영향을 끼칠 것으로 예상됩니다.

따라서 중요한 시대별로 인공지능 연관 분야의 획기적인 논문이나 기술적 트렌드등을 위주로 알아보겠습니다.

최근 몇년사이에 급속히 인공지능(AI)가 발달하고 있습니다. 특히 대량언어모델(LLM)의 발달로 급속히 모든 산업에 적용되고 있는 상황입니다. 또한 생성형 AI의 발달은 여러 직업의 형태와 향후 변화에 큰 영향을 끼칠 것으로 예상됩니다.

따라서 중요한 시대별로 인공지능 연관 분야의 획기적인 논문이나 기술적 트렌드등을 위주로 알아보겠습니다.

인공지능의 역사 : 탄생과 초기 발전

인공지능이라는 개념이 처음으로 등장한 1950년대부터이며 1960년대의 초기 AI 연구와 발전이 이뤄집니다. 이때의 가장 핵심적인 논문은 앨런 튜링의 “컴퓨팅 기계와 지능” 입니다. 또한 최초의 AI 프로그램인 ‘엘리자(Eliza)’도 인공지능의 초기 발전에 큰 기여를 하였습니다.

앨런 튜링의 논문은 1950년에 발표되었으며, “튜링 테스트”로 유명합니다. 이 테스트는 기계가 인간과 구별할 수 없을 정도로 지능적인지를 판단하는 기준을 제시합니다. 튜링은 기계가 사람처럼 생각할 수 있는지에 대한 질문을 던지고, 기계가 언어를 이해하고, 학습하며, 문제를 해결할 수 있는 능력을 가질 수 있다고 주장했습니다. 이 논문은 인공지능 연구의 기초를 마련하고, 후속 연구와 발전에 중요한 영향을 끼쳤습니다.

‘엘리자(Eliza)’는 1960년대에 MIT의 조셉 와이젠바움(Joseph Weizenbaum)에 의해 개발된 최초의 AI 프로그램 중 하나입니다. 이 프로그램은 심리치료사와 환자 간의 대화를 모방한 것으로, 사용자가 입력한 텍스트에 대해 자연스러운 대화를 이끌어내는 것처럼 보이는 응답을 제시합니다. 엘리자는 초기 인공지능 분야에서의 중요한 성과로 평가되며, 컴퓨터가 인간과 의미 있는 대화를 나눌 수 있는 가능성을 보여주었습니다.

1970-1980년대: 전문가 시스템과 AI의 한계: 1970년대와 1980년대에 전문가 시스템의 발전과 이와 관련된 AI의 한계점들을 탐구합니다. 이 시기에 AI 연구는 어려움을 겪었으며, 이를 ‘AI 겨울’이라고 부릅니다. 특히 하드웨어 분야에서 AI연구를 하기에는 충분하지 못했으며, 그에 따라 알고리즘의 개발도 지연됩니다.

인공지능의 역사

1990년대 머신러닝의 부상

1990년대에는 머신러닝이 AI 연구의 주류로 부상합니다. 이때 개발된 알고리즘과 기술, 특히 ‘백프로파게이션 알고리즘’, 그리고 ‘서포트 벡터 머신’ 등이 큰 영향을 끼칩니다.

백프로파게이션 알고리즘: 이 알고리즘은 신경망에서 학습 과정의 핵심입니다. 신경망은 입력 데이터를 받아 출력을 생성하는데, 이때 예측값과 실제값 사이의 오차를 최소화하기 위해 가중치를 조정합니다. 백프로파게이션은 이 오차를 신경망의 각 레이어를 거슬러 올라가며 가중치를 조정하는 방법으로, 신경망이 올바른 예측을 할 수 있도록 도와줍니다. 즉, 신경망이 학습을 통해 더 정확한 예측을 할 수 있도록 하는 기술입니다.

서포트 벡터 머신 (SVM): SVM은 분류 문제를 해결하는 데 사용되는 머신러닝 모델입니다. 데이터를 분류하는 최적의 경계선(또는 고차원에서는 경계면)을 찾는 것이 목표입니다. 이 경계선은 서로 다른 클래스의 데이터를 가능한 가장 멀리 떨어지게 분리합니다. SVM은 특히 복잡한 분류 문제에서 강력한 성능을 발휘하며, 높은 정확도를 제공합니다. SVM은 다양한 형태의 데이터에 적용 가능하며, 데이터의 특징을 고차원 공간으로 매핑하여 더욱 효과적으로 분류할 수 있습니다.

이 두 알고리즘은 머신러닝과 인공지능 분야에서 광범위하게 사용되며, 다양한 응용 분야에서 중요한 역할을 하게 됩니다.

2000년대 : 빅 데이터와 AI

2000년 대는 인터넷의 발달과 성숙에 따라 폭발적으로 데이터가 증가합니다. 또한 AI 기술이 새로운 단계로 진입하는 시기이기도 합니다. 이때는 우리가 현재 인공지능의 기술 리더들인 구글, 페이스북, 아마존 등 대규모 데이터를 활용한 기업들이 성장하는 시기입니다.

특히 알렉스넷(AlexNet)은 딥러닝 분야에서 중요한 이정표로 여겨지는 신경망 구조입니다. 2012년에 알렉스 크리제프스키(Alex Krizhevsky), 일리야 스츠케버(Ilya Sutskever), 제프리 힌튼(Geoffrey Hinton)에 의해 개발되었습니다. 이 구조는 이미지 분류 작업을 위해 설계되었으며, 그 당시로는 대규모의 신경망 구조였습니다.

알렉스넷은 CNN 신경망 알고리즘을 사용했으며, 이는 이미지 인식과 분류 문제에 있어서 매우 효과적인 접근 방식으로 판명되었습니다. CNN은 이미지의 공간적 계층 구조를 학습할 수 있으며, 이는 이미지 내부의 복잡한 패턴을 인식하는 데 유용합니다.

또한 알렉스넷의 가장 중요한 성과 중 하나는 2012년 이미지넷 대회(ILSVRC)에서의 성공입니다. 이 대회에서 알렉스넷은 기존 모델들을 크게 앞서는 성능을 보여주었으며, 이는 딥러닝과 CNN이 컴퓨터 비전 분야에서 주요한 기술이 되는 데 결정적인 역할을 했습니다. 그리고 딥러닝의 발전과 대중화에 중요한 기여를 했으며, 이후의 많은 연구와 개발에 영감을 주었습니다. 이 모델은 복잡한 신경망 구조와 대규모 데이터 세트를 사용하여 높은 정확도를 달성하는 것이 가능하다는 것을 증명했습니다. 이를 통해 딥러닝 기술이 다양한 분야에서 활용될 수 있는 길이 열렸습니다.

자연어 처리(NLP)의 진보: 트랜스포머 모델과 BERT, GPT와 같은 모델들의 개발이 언어 처리 기술을 혁신했습니다. 이러한 기술적 진보는 현재 사용하는 ChatGPT 류의 대용량처리 언어 모델의 발전에 근간이 되었습니다.

트랜스포머 모델: 2017년에 Google의 연구팀에 의해 개발된 트랜스포머 모델은 자연어 처리 분야에서 큰 변화를 일으켰습니다. 이 모델의 핵심은 ‘어텐션 메커니즘(Attention Mechanism)’으로, 텍스트 내의 다양한 단어들 사이의 관계를 더 잘 이해할 수 있게 합니다. 트랜스포머 모델은 이전의 순차적 처리 방식(RNN, LSTM)과 달리 병렬 처리가 가능해 학습 시간을 크게 단축시킵니다. 이러한 특징은 복잡한 언어 모델을 효율적으로 학습시키는 데 도움을 줍니다.

BERT (Bidirectional Encoder Representations from Transformers): Google이 2018년에 발표한 BERT는 트랜스포머 모델을 기반으로 합니다. BERT의 독특한 점은 양방향으로 텍스트를 처리한다는 것인데, 이는 주어진 단어의 전후 문맥을 모두 고려하여 더 정확한 언어 이해를 가능하게 합니다. BERT는 특히 문맥 의존적인 단어의 의미를 파악하는 데 탁월하며, 이는 기계 번역, 질문 응답 시스템, 감정 분석 등 다양한 자연어 처리 작업에 혁신을 가져왔습니다.

GPT (Generative Pre-trained Transformer): OpenAI에 의해 개발된 GPT는 트랜스포머 기반의 대규모 생성 언어 모델입니다. GPT는 다량의 텍스트 데이터로 사전 학습된 후, 특정 작업에 대해 미세 조정됩니다. 이 모델은 특히 자연어 생성에서 뛰어난 성능을 보여, 자연스러운 텍스트를 생성하거나 특정 주제에 대한 질문에 답하는 데 사용됩니다. GPT는 그 진보된 버전인 GPT-2와 GPT-3으로 발전하면서, 자연어 이해와 생성 능력을 한층 더 끌어올렸습니다.

2020년대 드디어 꽃을 피다.

OpenAI의 ChatGPT 3.5의 공개를 시작으로 다양한 생성형 AI의 출현은 인공지능이 대중화 되는데에 결정적인 역활을 했습니다. 하지만 급속한 발전은 또다른 여러가지 문제를 야기 시키기도 합니다. 그것이 윤리적 문제들과 책임있게 AI를 사용하는 것에 대한 문제 입니다. 최근 2024년 다보스 포럼에서도 인공지능(AI)를 사용한 딥페이스등의 가짜 정보로 정치 등 사회적 혼란을 야기 시킬수 있다는 것을 경고 하고 있습니다.

그리고 AI는 기존 로봇공학과의 결합, 그리고 자율주행, 드론 등과의 기술 협업등으로 관련 기술을 빠르게 혁신하고 있습니다. 또한 응용범위를 급속하게 확장하여 헬스케어, 금융, 교육등에서도 다양한 연구개발이 진행되고 있습니다.

앞으로의 과제

바야흐로 인공지능의 시대입니다.

빠른 기술발전이 인간을 더욱 더 윤택한 삶으로 이끌수도 있지만, 그로 말미암에 발생하는 다양한 문제점에 대한 연구가 반드시 필요한 시점입니다.

댓글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다