인공지능의 역사를 알아보자

인공지능의 역사를 알아보자
최근 몇년사이에 급속히 인공지능(AI)가 발달하고 있습니다. 특히 대량언어모델(LLM)의 발달로 급속히 모든 산업에 적용되고 있는 상황입니다. 또한 생성형 AI의 발달은 여러 직업의 형태와 향후 변화에 큰 영향을 끼칠 것으로 예상됩니다.

따라서 중요한 시대별로 인공지능 연관 분야의 획기적인 논문이나 기술적 트렌드등을 위주로 알아보겠습니다.

한눈에 보기 (TL;DR)

  • 인공지능(AI)의 출발점은 1950년 앨런 튜링의 “Computing Machinery and Intelligence” 논문과 1956년 다트머스 회의(존 매카시 등).
  • 1970~80년대 두 차례의 “AI 겨울”; 2012년 AlexNet의 ImageNet 우승으로 딥러닝 시대 개막.
  • 2017년 Google “Attention Is All You Need” → 트랜스포머 아키텍처가 모든 현대 LLM의 기반.
  • 2022-11 ChatGPT 출시로 생성형 AI 대중화; 2024-05 GPT-4o, 2024-09 o1(추론 모델), 2024-12 o3로 빠른 진화.
  • 2024 노벨 물리학상(힌튼·홉필드)·화학상(하사비스·점퍼·베이커) 동시 수상 — AI가 과학 자체를 바꾸는 시대.

Key Facts — AI 발전 타임라인

연도이정표설명
1950튜링 테스트앨런 튜링 “Computing Machinery and Intelligence”
1956다트머스 회의존 매카시 “Artificial Intelligence” 용어 최초 사용
1966ELIZAMIT 와이젠바움, 최초 대화형 챗봇
1986역전파Rumelhart·Hinton·Williams 역전파 알고리즘 재조명
1997딥블루IBM이 체스 챔피언 카스파로프 격파
2012AlexNetKrizhevsky·Sutskever·Hinton, ImageNet 우승 → 딥러닝 시대
2014GANIan Goodfellow, 생성적 적대 신경망 제안
2016AlphaGoDeepMind, 이세돌 9단 4-1 격파
2017Transformer“Attention Is All You Need” — 현대 LLM의 기반
2018BERTGoogle, 양방향 트랜스포머 NLP 혁신
2020GPT-3OpenAI, 175B 파라미터 거대 언어 모델
2022-11ChatGPT출시 2개월 만에 MAU 1억 돌파(역대 최단)
2023-03GPT-4멀티모달 사고 능력, GPT-4 Turbo·GPT-4o로 확장
2024-05GPT-4o네이티브 멀티모달, 음성·이미지·텍스트 통합
2024-09OpenAI o1“추론 모델” 새 패러다임 (chain-of-thought 내장)
2024-10노벨상 2관왕물리(Hinton·Hopfield), 화학(Hassabis·Jumper·Baker)
2024-12OpenAI o3ARC-AGI 87.5%로 인간 평균 초과 (테스트)

출처: arXiv 원논문 · OpenAI/Google DeepMind/Anthropic 공식 발표 · Nobel Prize 2024

최근 몇 년 사이 인공지능(AI)이 급속히 발달하고 있습니다. 특히 대규모 언어 모델(LLM)의 발달로 모든 산업에 빠르게 적용되고 있으며, 생성형 AI는 여러 직업 형태와 향후 변화에 큰 영향을 끼칠 것으로 예상됩니다.

따라서 시대별로 인공지능 연관 분야의 획기적인 논문과 기술적 트렌드를 위주로 알아보겠습니다.

인공지능의 역사: 탄생과 초기 발전

인공지능이라는 개념은 1950년대에 처음 등장했고, 1960년대에 초기 AI 연구와 발전이 이뤄집니다. 이 시기의 가장 핵심적인 논문은 앨런 튜링의 “Computing Machinery and Intelligence”(1950)입니다. “인공지능(Artificial Intelligence)” 용어 자체는 1956년 다트머스 워크숍에서 존 매카시(John McCarthy)에 의해 처음 사용되었으며, 이 회의가 AI 학문의 공식 출발점으로 간주됩니다. 또한 최초의 대화형 AI 프로그램 ‘엘리자(ELIZA)’도 인공지능 초기 발전에 큰 기여를 했습니다.

앨런 튜링의 논문은 1950년에 발표되었으며 “튜링 테스트”로 유명합니다. 이 테스트는 기계가 인간과 구별할 수 없을 정도로 지능적인지 판단하는 기준을 제시합니다. 튜링은 기계가 사람처럼 생각할 수 있는지에 대한 질문을 던지고, 기계가 언어를 이해·학습·문제 해결의 능력을 가질 수 있다고 주장했습니다. 이 논문은 AI 연구의 기초를 마련해 후속 연구에 결정적 영향을 끼쳤습니다.

‘엘리자(ELIZA)’는 1966년 MIT의 조셉 와이젠바움(Joseph Weizenbaum)에 의해 개발된 최초의 AI 대화 프로그램입니다. 심리치료사와 환자의 대화를 모방한 것으로, 사용자가 입력한 텍스트에 대해 자연스러운 대화를 이끌어내는 응답을 제시합니다. 엘리자는 컴퓨터가 인간과 의미 있는 대화를 나눌 수 있는 가능성을 보여줬으며, 동시에 사용자가 단순 규칙 기반 시스템에도 인격을 투영하는 “엘리자 효과”의 시발점이 되었습니다.

1970-1980년대: 전문가 시스템과 AI의 한계 — 전문가 시스템(MYCIN, DENDRAL 등)의 발전과 함께, AI 연구는 어려움을 겪었습니다. 이를 ‘AI 겨울’이라 부릅니다(1차 1974-1980, 2차 1987-1993). 하드웨어가 충분치 않아 알고리즘 개발이 지연되었고, 일본의 5세대 컴퓨터 프로젝트 등 야심찬 시도가 실패하며 자금이 끊겼습니다.

1990년대 머신러닝의 부상

1990년대에는 머신러닝이 AI 연구의 주류로 부상합니다. 이때 ‘백프로파게이션 알고리즘'(1986년 Rumelhart·Hinton·Williams 재발견)과 ‘서포트 벡터 머신(SVM)’ 등이 큰 영향을 끼칩니다. 1997년 IBM 딥블루가 체스 챔피언 가리 카스파로프를 6국 승부에서 격파해 AI 능력의 대중적 인식을 끌어올렸습니다.

백프로파게이션 알고리즘: 신경망 학습의 핵심입니다. 신경망은 입력을 받아 출력을 생성하는데, 예측과 실제값 사이의 오차를 최소화하기 위해 가중치를 조정합니다. 백프로파게이션은 이 오차를 신경망의 각 레이어를 거슬러 올라가며 가중치를 조정하는 방법으로, 신경망이 올바른 예측을 할 수 있도록 합니다.

서포트 벡터 머신 (SVM): 분류 문제 해결에 사용되는 머신러닝 모델로, 서로 다른 클래스의 데이터를 가능한 멀리 떨어지게 분리하는 경계선을 찾습니다. SVM은 특히 복잡한 분류 문제에서 강력한 성능을 발휘하며, 다양한 형태의 데이터에 적용 가능합니다.

이 두 알고리즘은 머신러닝과 인공지능 분야에서 광범위하게 사용되며 다양한 응용 분야에서 중요한 역할을 합니다.

2000년대: 빅데이터와 딥러닝의 부상

2000년대는 인터넷 발달·성숙으로 데이터가 폭발적으로 증가하는 시기입니다. AI 기술이 새로운 단계로 진입하는 시기이기도 합니다. 우리가 현재 알고 있는 AI 기술 리더들(구글·페이스북·아마존)이 대규모 데이터를 활용해 성장하는 시기입니다.

알렉스넷(AlexNet)은 딥러닝 분야의 중요한 이정표입니다. 2012년 알렉스 크리제프스키(Alex Krizhevsky)·일리야 스츠케버(Ilya Sutskever)·제프리 힌튼(Geoffrey Hinton)에 의해 개발됐고, 이미지 분류 작업을 위해 설계된 그 당시 대규모 신경망입니다.

알렉스넷은 CNN 알고리즘을 사용했으며 이는 이미지 인식·분류에 매우 효과적임이 판명되었습니다. CNN은 이미지의 공간적 계층 구조를 학습할 수 있어 복잡한 패턴 인식에 유용합니다.

알렉스넷의 가장 중요한 성과는 2012년 ImageNet 대회(ILSVRC)에서 오류율 15.3%로 2위 26.2%를 압도한 것입니다. 이는 딥러닝과 CNN이 컴퓨터 비전의 주요 기술이 되는 데 결정적인 역할을 했고, 이후의 많은 연구·개발에 영감을 주었습니다. 2016년 DeepMind의 AlphaGo가 이세돌 9단을 4-1로 격파한 것은 일반 대중에 AI 능력을 각인시킨 결정적 사건입니다.

자연어 처리(NLP)의 진보: 트랜스포머 모델과 BERT, GPT 같은 모델의 개발이 언어 처리 기술을 혁신했습니다. 이러한 기술적 진보는 현재 사용하는 ChatGPT류 LLM의 근간이 되었습니다.

트랜스포머 모델: 2017년 Google 연구팀의 “Attention Is All You Need”(Vaswani et al., NeurIPS) 논문에서 제안된 트랜스포머 모델은 자연어 처리 분야에 큰 변화를 일으켰습니다. 핵심은 ‘어텐션 메커니즘’으로, 텍스트 내 단어들 사이의 관계를 더 잘 이해할 수 있게 합니다. 이전의 순차 처리 방식(RNN·LSTM)과 달리 병렬 처리가 가능해 학습 시간을 크게 단축시킵니다.

BERT (Bidirectional Encoder Representations from Transformers): 2018년 Google이 발표한 BERT는 트랜스포머 기반입니다. BERT는 양방향으로 텍스트를 처리해 주어진 단어의 전후 문맥을 모두 고려한 정확한 언어 이해가 가능합니다. 기계 번역·질문 응답·감정 분석 등 다양한 NLP 작업에 혁신을 가져왔습니다.

GPT (Generative Pre-trained Transformer): OpenAI가 개발한 GPT는 트랜스포머 기반의 대규모 생성 언어 모델입니다. 다량의 텍스트 데이터로 사전 학습된 후 특정 작업에 미세 조정됩니다. GPT-2(2019)→GPT-3(2020, 175B 파라미터)→GPT-4(2023)→GPT-4o(2024-05)→o1(2024-09)→o3(2024-12)로 빠르게 진화해왔습니다.

2020년대: 드디어 꽃을 피우다

2022년 11월 30일 OpenAI ChatGPT의 공개를 시작으로 다양한 생성형 AI의 출현은 인공지능 대중화에 결정적 역할을 했습니다. ChatGPT는 출시 2개월 만에 월간 활성 사용자 1억 명을 돌파해 역대 최단 기록을 세웠고, 이후 Anthropic Claude, Google Gemini, Meta Llama 같은 강력한 경쟁자가 등장하며 시장이 다극화되었습니다.

2024년은 AI에게 특별한 해였습니다. 5월 GPT-4o(omni)는 텍스트·음성·이미지를 네이티브로 처리하는 단일 모델이 되었고, 9월 OpenAI o1은 “추론 단계 내장”이라는 새 패러다임을 열었습니다(수학·코딩에서 박사 수준 성능). 2024년 10월 노벨 물리학상은 인공신경망의 기초를 닦은 제프리 힌튼과 존 홉필드에게, 노벨 화학상은 AlphaFold로 단백질 구조 예측을 혁신한 데미스 하사비스·존 점퍼·데이비드 베이커에게 수여되었습니다. 같은 해 12월 OpenAI는 o3 모델이 ARC-AGI 벤치마크에서 87.5%(인간 평균 85%)를 기록했다고 발표했습니다.

한편 급속한 발전은 윤리적 문제와 책임 있는 사용에 대한 과제를 남깁니다. 2024년 다보스 포럼에서도 AI를 사용한 딥페이크 등 가짜 정보로 정치·사회 혼란을 야기할 수 있다는 경고가 나왔습니다. EU는 2024년 8월 1일 AI Act를 발효해 규제 체계를 본격화했고, 한국도 2024년 12월 26일 ‘AI 기본법’을 국회 본회의에서 통과시켰습니다(2026년 1월 시행 예정).

그리고 AI는 기존 로봇공학과의 결합, 자율주행·드론 등과의 기술 협업으로 관련 기술을 빠르게 혁신하고 있습니다. 또한 응용 범위를 급속도로 확장해 헬스케어·금융·교육 등에서도 다양한 R&D가 진행되고 있습니다.

앞으로의 과제

바야흐로 인공지능의 시대입니다.

빠른 기술 발전이 인간을 더 윤택한 삶으로 이끌 수도 있지만, 그로 인해 발생하는 다양한 문제점(AI 안전성·정렬·일자리·저작권·지속가능성)에 대한 연구가 반드시 필요한 시점입니다. 특히 2024년에 화두가 된 AGI(범용 인공지능) 도달 시점 논쟁, AI 에너지 소비(2030년 전세계 데이터센터 전력 수요 4% 도달 전망), AI 안전성 평가(英 AI Safety Institute·美 NIST AISI 설립) 등이 향후 5년의 핵심 의제입니다.

자주 묻는 질문

“Artificial Intelligence(인공지능)”라는 용어는 1956년 미국 다트머스 대학에서 열린 여름 워크숍(다트머스 회의)에서 존 매카시(John McCarthy)에 의해 처음 사용됐습니다. 매카시·마빈 민스키·클로드 섀넌·네이선 로체스터가 주관한 이 8주간의 워크숍이 AI를 정식 학문 분야로 출범시킨 사건으로 평가됩니다. 다만 그 전 1950년 앨런 튜링이 “Computing Machinery and Intelligence”에서 기계 지능의 가능성을 논했고, 이를 AI의 사실상 출발점으로 보기도 합니다.

AI 겨울은 AI에 대한 기대가 무너지고 자금·관심이 급감한 시기를 가리킵니다. 1차(1974~1980)는 영국 라이트힐 보고서가 AI 한계를 지적하며 영국 정부 자금이 끊기고, 2차(1987~1993)는 LISP 머신 시장 붕괴와 일본 5세대 컴퓨터 프로젝트 실패로 촉발됐습니다. 원인은 (1) 하드웨어 한계, (2) 과장된 약속과 실제 능력의 괴리, (3) 데이터 부족이었습니다. 2010년 이후 GPU·빅데이터·딥러닝의 만남으로 영구히 봄이 왔다는 평가도 있지만, AGI 약속이 늦어지면 또다른 겨울 가능성도 일부에서 거론됩니다.

2017년 Google “Attention Is All You Need”에서 제안된 트랜스포머는 (1) 병렬 처리 가능해 RNN/LSTM 대비 학습 속도가 10~100배 빠르고, (2) 어텐션 메커니즘으로 긴 문맥 의존성을 효과적으로 학습하며, (3) 동일 아키텍처가 텍스트·이미지·음성·비디오에 모두 적용 가능한 범용성을 갖춥니다. 이로 인해 GPT·BERT·CLIP·Stable Diffusion·Sora 등 거의 모든 현대 생성 AI가 트랜스포머 변형 위에 구축됩니다. 결과적으로 2017년 이전과 이후의 AI 능력에 거대한 단절이 발생했습니다.

2022년 11월 30일 출시된 ChatGPT는 (1) 무료, (2) 회원가입 후 즉시 사용, (3) 자연어로 거의 모든 질문에 그럴듯한 답변이라는 세 가지 요소가 결합해 폭발적 채택을 일으켰습니다. UBS 분석에 따르면 출시 2개월 만에 MAU 1억 명을 돌파, 역대 최단 기록입니다(틱톡 9개월, 인스타그램 2.5년). 이는 OpenAI의 GPT-3 API(2020)·InstructGPT(2022.1)·RLHF(인간 피드백 강화학습)으로 쌓은 기반 위에서 가능했고, 이후 Anthropic Claude·Google Gemini·Meta Llama 등 경쟁자 등장으로 시장이 폭발했습니다.

2024년 노벨 물리학상은 인공신경망의 기초를 닦은 제프리 힌튼(Geoffrey Hinton, 토론토대)과 존 홉필드(John Hopfield, 프린스턴대)에게 수여됐습니다. 화학상은 단백질 구조 예측에 혁신을 가져온 데미스 하사비스·존 점퍼(Google DeepMind, AlphaFold)와 단백질 설계의 데이비드 베이커(워싱턴대)에게 돌아갔습니다. 이는 AI가 단순 도구를 넘어 과학 자체의 발견 방식을 바꾸는 도구가 되었음을 노벨위원회가 공식 인정한 첫 사례로 평가됩니다.

전문가 견해는 갈립니다. (1) 낙관론: OpenAI 샘 알트만은 “2025년 내 AGI 등장 가능”, DeepMind 데미스 하사비스는 “5~10년 내 AGI”를 전망. (2) 신중론: 얀 르쿤(Meta 수석)은 “현 LLM 방식으로는 AGI 불가능, 새 아키텍처 필요”. (3) AI 전문가 설문(AI Impacts 2023)에서는 50% 확률 AGI 시점 중앙값이 2047년. 2024년 OpenAI o1·o3의 추론 능력 비약은 AGI 시점을 앞당겼다는 평가도, 단순 벤치마크 과적합이라는 회의론도 있습니다.

최종 업데이트: 2024년 12월. 2024 노벨상·OpenAI o1·o3·EU AI Act·한국 AI 기본법 통과 반영.

댓글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다