Thinking Box

인공지능의 역사: 생각하는 기계에서 생성형 AI까지 본문

카테고리 없음

인공지능의 역사: 생각하는 기계에서 생성형 AI까지

레야_Reya 2024. 6. 27. 16:02

비전공자인 나로서는 컴퓨터 공학을 전공한 사람들이 부러운 이유 중 하나가 무엇이냐 하면...

컴퓨터 기술이 어떻게 발전해 왔는지, 컴퓨터와 자료의 구조는 어떻게 바뀌어 왔는지 등등 이 학문 분야가 지금까지 어떻게 발전해왔는지의 과정과 그 배경이 늘 궁금하지만 (흔히 전공을 선택하면 기초 소양처럼 배우게 되고, 배우면서도 '이걸 왜 알아야해, 재미없어...' 라는 생각이 드는 그런 내용들 말이다), 막상 기술적인 스킬을 습득하느라 허덕이고 있는 탓에 이러한 기본 지식들을 배울 기회가 많이 없다는 점이다. 진심 아쉽...! 🥲

 

그래서 내가 궁금해서 찾아보다가 정리하게 된 AI의 발전 역사, 한 번 알아보자! 🧐


 

 

인공지능(Artificial Intelligence)은 기계가 인간처럼 사고하고 학습할 수 있다는 아이디어에서 시작되었다.

이러한 아이디어는 1950년대부터 발전하기 시작해서, 오늘날 우리가 알고 있는 첨단 AI 기술로 이어지고 있다.

AI의 발전 과정을 몇 가지 주요 시기로 나누어서 살펴보면, 각 시기별로 중요한 발견과 혁신이 있었다.

1950년대: 인공신경망의 태동

놀랍게도 AI 라는 개념은 지금으로부터 무려 70여 년 전에 출발했다.

1950년, 영국의 수학자 앨런 튜링은 그의 논문 "Computing Machinery and Intelligence" 에서 '기계가 인간처럼 사고할 수 있는가'에 대한 질문을 던지며, AI 연구의 시초가 되는 '튜링 테스트'를 고안했다.

그리고 1956년, 다트머스 회의(Dartmouth Conference)에서 인공지능 이라는 용어가 처음 사용되었다.

용어가 정립된다는 것은 그 개념의 정체성이 생기는 것이라고 생각한다. 그런 의미에서 굉장히 역사적인 회의...!

이 회의에서 존 매카시, 마빈 민스키, 클로드 섀넌 등 여러 학자가 모여 기계가 인간처럼 학습하고 지능을 모방할 수 있는 방법에 대해 논의를 했다고 한다.

이제 막 개념이 정립되던 이 시기에 개발된 초기 AI 프로그램으로는 IBM 딥블루의 전신이 되는 체스 프로그램, 그리고 조셉 와이젠바움이 개발한 NLP 프로그램 '엘리자'가 있었다.

그리고... 두둥! 1957년에는 최초의 인공신경망 모델인 퍼셉트론이 개발되었다. 😲!

 

1970년대: AI의 겨울

하지만 인공지능 분야가 등장 이후로 계속 승승장구하기만 한 것은 아니었다.

1970년대 후반부터 1980년대 초반은 인공신경망의 침체기였다..☃️

1950년대에 개발된 퍼셉트론 모델은 단층 퍼셉트론(single-layer perceptron)이었는데, 이후에 XOR 문제와 같은 비선형 문제를 해결할 수 없다는 치명적인 한계를 마주하게 되었다.

기술적 한계를 맞닥뜨린 인공신경망 연구에 대한 사람들의 관심은 자연스레 줄어들었고, 연구 자금도 줄어들게 되면서 AI 연구는 한동안 침체기를 겪었다.

 

1980년대: 신경망과 기계 학습의 부활

1980년대 후반부터 신경망 모델은 다시 한 번 세간의 주목을 받기 시작했다.

그 배경에는 딥러닝의 대부라고 불리는 제프리 힌튼의 역할이 매우 컸다.

1986년, 힌튼은 역전파 알고리즘(backpropagation)을 도입하여 인공신경망을 여러 겹 쌓은 다층 퍼셉트론(multi-layer perceptrons)에 적용했고, 이로써 비로서 신경망 학습이 가능해지게 되었다.

 

1990년대: 머신러닝의 등장

1990년대에는 머신러닝 알고리즘이 등장하게 되면서, 기계는 이제 인간의 명령을 받아 작동하는 것을 뛰어넘어서 스스로 규칙을 찾아 학습할 수 있게 되었다.

디지털과 인터넷의 발전으로 인해 웹에서 수집한 대량의 데이터를 컴퓨터가 활용할 수 있게 되면서 기계학습이 발달할 수 있었고, 이제 AI는 사람이 찾지 못하는 규칙까지도 학습할 수 있는 능력을 갖추게 되었다.

 

2010년대: 딥러닝의 급속 성장

2010년대에 들어서면서 AI 연구의 중심은 딥러닝이 되었다.

IoT의 발전과 스마트폰 및 인터넷으로부터 실시간으로 수집되는 대량의 데이터와 강력한 GPU(Graphic Processing Unit)가 합쳐지면서, 딥러닝의 반복적인 계산이 용이해졌고 빅데이터 학습을 거듭할수록 딥러닝 알고리즘은 정교해져갔다.

그러다가 2016년, 구글 딥마인드가 개발한 AI 알파고가 이세돌을 꺾는 충격적인 사건이 발생하면서 AI 시대의 개막을 본격적으로 전세계에 각인시켰다.

이후로도 딥러닝 기술은 음성 인식, 이미지 인식, 자연어 처리 등 다양한 분야에 접목되어 혁신을 일으켰다.

구글, 페이스북, 아마존 등 주요 IT 기업들이 선두주자로 나서서 기술을 발빠르게 도입하면서 AI의 상용화가 이루어졌다.

 

2020년대: 생성형 AI의 등장과 발전

2022년 말, 오픈AI가 챗GPT를 출시하면서 바야흐로 (대) 생성형 AI 시대가 열리게 되었다.🥳🎉

첫 챗GPT는 LLM GPT-3.5를 탑재하고 있었다. 이러한 생성형 AI 모델들은 자연어 생성, 이미지 생성, 코드 작성 등 다양한 분야에서 뛰어난 성능을 보여주고 있으며 앞으로 무궁무진한 발전 가능성을 예측해볼 수 있다.

 

그렇다면 생성형 AI는 기존의 AI와 무엇이 그렇게 다른걸까?

기존의 딥러닝 알고리즘을 사용한 AI는 주어진 데이터를 바탕으로 예측 및 분류 작업을 수행하고 패턴을 찾아냈다면,

생성형 AI는 사용자의 요구에 따라서 스스로 결과물을 생성, 곧 창작 할 수 있는 것이 특징이다.

이로써 AI가 인간의 고유 영역인 창작 만큼은 범접하지 못할 것이라는 전세계의 수많은 사람들의 믿음은 생성형 AI의 등장으로 인해 산산조각나게 되었다.

LLM(Large Language Model)이란❓
: 거대 언어 모델. 대량의 텍스트 데이터를 통해 학습한 지식을 기반으로 다양한 자연어 처리 작업을 수행하는 딥러닝 알고리즘이다. 문장 생성, 번역, 요약, 질의응답 등 다양한 언어 관련 작업을 처리할 수 있다.
GPT(Generative Pre-trained Transformer)란❓
: 대규모 데이터셋을 통해 사전 학습된 언어 모델. 다양한 자연어 처리 작업을 수행할 수 있는 AI로, 주어진 텍스트를 기반으로 문장을 생성하고, 질문에 답하며, 대화를 이어가는 등 언어와 관련된 다양한 작업을 처리할 수 있다.

 

그렇다면 시간을 조금 거슬러 올라가서 생성형 AI가 어떻게 시작되게 되었는지 살펴보자.

2014년 이안 굿펠로우(Ian Goodfellow)는 GANs(Generative Adversarial Networks, 생성적 적대 신경망) 모델을 발표했다.

GANs는 두 신경망이 서로 경쟁하며 학습하는 구조로, 실제 데이터와 유사도가 매우 높은 데이터를 생성하고, 이를 실제 데이터와 비교하여 판별해내는 작업을 반복함으로써 점점 더 정교한 데이터를 완성시키는 방식이다.

그리고 2017년, LLM의 출현에 결정적인 역할을  한 NLP 모델 Transformer 모델이 발표되면서, 언어 이해, 기계 번역, 대화형 시스템 등의 NLP 작업에 혁신을 가져오게 되었다.

트랜스포머 모델은 데이터 간의 관계를 중요 변수로 고려하기 때문에, 그 가운데서 더욱 중요한 정보가 무엇인지 판독하여 결과물의 퀄리티를 높일 수 있다.

이를 바탕으로 2018년에는 처음으로 GPT가 출시되었다. 그리고 이후로도 계속해서 더 많은 파라미터와 학습 데이터를 통해 빠르게 성능 개선이 이루어졌고, 마침내 2022년에는 앞서 말했던 GPT-3.5를 탑재한 대화형 인공지능 시스템 챗GPT가 출시되었다.

챗GPT는 사용자와의 대화 맥락을 이해하고 적절한 반응을 제시하는 능력에 있어서 매우 뛰어난 성능을 보였고, 출시한 지 두 달 만에 사용자 수 1억 명을 돌파하는 기염을 토해냈다.

2023년에는 오픈AI가 GPT-4를 출시했다. 이 모델은 기존의 3.5모델보다 약 500배가 큰 데이터 셋을 학습한 것으로써, 텍스트뿐 아니라 이미지, 오디오, 비디오 등 다양한 입력 데이터를 동시에 처리하는 능력을 갖춘 LMM(Large Multimodal Model)으로 진화하게 된 것이다.

 

미래의 AI: 생성형 AI의 시대

구글의 Gemini, 메타의 SAM, 오픈AI의 Sora 등은 모두 생성형 AI 서비스이다.

현재 주목받는 On-Device AI는 휴대폰, PC 등의 전자기기에 AI 칩셋과 소형 LLM(smaller LLM)을 설치해 자체적으로 AI 서비스를 운영할 수 있게 한다. 이는 보안 문제를 해결하고, 더욱 개인화된 AI 서비스를 제공하는 데 유용하다.

IDC(International Data Corporation)의 보고서에 따르면 2027년 생성형 AI 시장은 1,511억 달러에 이를 것으로 예상된다고 한다. 생성형 AI는 소프트웨어뿐만 아니라 하드웨어와 인터넷 서비스 등 다양한 분야에 도입되면서 기능이 고도화되고 사람들의 접근성이 높아지며 우리 삶의 전반에 스며들 것이다.

 


글을 마치며...

인공지능의 역사는 이제 막 시작되었다.

고로 앞으로 어떤 혁신과 발전이 일어날지는 누구도 상상조차 하기 어렵다.

하지만 지금 이 시대를 살아가는 우리는 역사적인 순간을 직접 생생하게 목격하고 있는 것이다.

이 변화의 흐름에 동참하고 있다는 사실만으로도 두근두근하다 ! 😳