[IT백과] 생성형AI의 진화 ‘AI 에이전트’, 기존 AI 비서와 뭐가 다를까?
정보기술(IT) 영역에 관한 모든 지식을 압축해 풀이합니다. IT산업에 꼭 필요한 용어들을 소개하고, 살펴보면 좋을 쟁점들도 정리합니다. IT가 처음인 입문자라면 혹은 동향을 알고 싶은 전문가라면, 디지털데일리의 ‘IT백과’를 참고하세요. <편집자주>
[Ⓒ 픽사베이]
[디지털데일리 권하영기자] 지난 2022년 챗GPT가 처음 등장한 이래 생성형 인공지능(AI)은 많은 발전을 이룩하고 있다. 자연어 프롬프트(명령어) 입력으로 결과값을 내는 생성형 AI의 구동 방식은 지난 2년간 프롬프트 엔지니어링과 거대언어모델(LLM) 파인튜닝, 외부지식소스 기반 검색증강생성(RAG) 기술 등 많은 진일보를 이뤄냈다.
생성형 AI에 있어 가장 최근의 진화 방향은 ‘AI 에이전트(AI Agents)’다. AI 에이전트는 특정 목표 달성을 위해 스스로 행동하고 결정하는 AI를 말한다. 기존의 생성형 AI가 텍스트·이미지·음악 등을 ‘생산’해내는 데 초점을 뒀다면, 이제는 사람 개입이 필요 없는 ‘자율 에이전트(autonomous agent)’로서 기능하기 시작했다는 뜻이다.
해외에선 주로 ‘에이전틱 AI(Agentic AI)’라고 부르는 AI 에이전트는 크게 인지·결정·행동의 과정을 거친다. 센서입력 또는 데이터로 외부환경을 인지한 뒤, 머신러닝(ML) 기반으로 목표 달성을 위한 최적의 결정을 내리며, 필요한 멀티모달적 결과를 제공할 뿐만 아니라 로봇과 연계해 물리적 움직임이나 SW 명령을 실행하기도 한다.
기존에도 생성형 AI가 일종의 ‘비서(Assistant)’ 역할을 하긴 했지만, 이는 AI 에이전트와는 조금 다르다. 예를 들어 챗GPT 같은 LLM 기반 AI 챗봇은 사용자가 프롬프트 입력을 하면 즉시 학습데이터를 확인해 적합해보이는 응답을 내놓는데, AI 에이전트는 사용자의 목표를 이해하기 위해 구성요소를 마련하고 계획을 세우는 일부터 한다.
삼성SDS 인사이트 리포트 ‘AI 에이전트의 시대: 인공지능이 소프트웨어를 사용하는 패러다임의 변화’에 따르면, AI 에이전트가 일반 AI 챗봇과 구분되는 능력은 3가지로 요약된다.
하나는 ‘추론’이다. AI 에이전트의 핵심에는 계획과 추론을 담당하는 LLM이 있는데, LLM은 복잡한 문제를 세분화해 이를 해결하기 위한 계획을 세운 뒤 프로세스의 각 단계에 대한 이유를 제공한다.
다른 하나는 ‘행동’이다. AI 에이전트는 외부 프로그램과 상호 작용할 수 있다. 웹 검색, 데이터베이스(DB) 쿼리(Query), 코드 실행 등 다양한 소프트웨어(SW) 도구와 기타 AI 모델 등을 사용해 문제 해결 시기와 방법을 결정할 수 있다.
마지막은 ‘메모리 액세스’다. AI 에이전트는 에이전트의 사고 과정에 대한 내부 로그와 사용자와의 대화 기록 등 이전에 일어난 일에 대한 메모리에 접근할 수 있으며, 이를 통해 보다 개인화되고 상황에 맞는 상호작용을 할 수 있다.
특히 ‘행동’의 영역은 다른 AI와 AI 에이전트를 구분짓는 핵심적인 차별점이다. 컴퓨팅 역사가 시작된 이래 오직 사람만이 SW를 사용하는 주체였지만, 이제는 AI 에이전트도 SW를 사용한다. 즉, 사상 처음으로 SW가 SW의 사용 주체가 되는 것이다.
글로벌 컨설팅 기업 딜로이트에 따르면, 2025년에는 생성형 AI를 사용하는 기업의 25%가 AI 에이전트의 파일럿 프로젝트나 개념증명(PoC)을 시작할 것으로 예상되며, 오는 2027년이면 그 비율이 두배에 달할 전망이다. 딜로이트는 “2025년 후반부터 일부 AI 에이전트 애플리케이션이 실제 워크플로에 도입될 가능성이 있다”고 내다봤다.
이미 글로벌 빅테크들과 그들의 주요 AI 파트너들은 생성형 AI 기반 에이전트를 경쟁적으로 선보이고 있다. 마이크로소프트(MS)는 올해 11월 자사 M365 코파일럿에 자동화된 에이전트를 추가한다고 발표했고, 세일즈포스는 AI 에이전트를 탑재한 고객관계관리(CRM) 솔루션을 출시할 예정이다. 엔비디아는 올해 초 자율주행차량을 위한 LLM 기반 에이전트인 ‘에이전트 드라이버’를 출시했다.
다만 앞으로 AI 에이전트 기술이 계속 발전해나가면서 안전성과 신뢰성을 확보하는 것은 중요한 과제가 될 것이다. AI 에이전트가 사용하는 데이터 소스가 개방형 인터넷을 중심으로 한다면 편향된 정보나 할루시네이션(거짓정보생성)을 초래할 수 있다. 또한 AI와의 상호작용에서 데이터 프라이버시 침해가 발생할 가능성도 배제할 수 없다. 이에 따라 할루시네이션을 차단할 수 있는 기술이나 인간 윤리·문화에 어긋나지 않는 AI 가드레일(안전장치) 기술도 더욱 고도화돼야 한다는 지적이다.
[디지털데일리 권하영기자] 지난 2022년 챗GPT가 처음 등장한 이래 생성형 인공지능(AI)은 많은 발전을 이룩하고 있다. 자연어 프롬프트(명령어) 입력으로 결과값을 내는 생성형 AI의 구동 방식은 지난 2년간 프롬프트 엔지니어링과 거대언어모델(LLM) 파인튜닝, 외부지식소스 기반 검색증강생성(RAG) 기술 등 많은 진일보를 이뤄냈다.
생성형 AI에 있어 가장 최근의 진화 방향은 ‘AI 에이전트(AI Agents)’다. AI 에이전트는 특정 목표 달성을 위해 스스로 행동하고 결정하는 AI를 말한다. 기존의 생성형 AI가 텍스트·이미지·음악 등을 ‘생산’해내는 데 초점을 뒀다면, 이제는 사람 개입이 필요 없는 ‘자율 에이전트(autonomous agent)’로서 기능하기 시작했다는 뜻이다.
해외에선 주로 ‘에이전틱 AI(Agentic AI)’라고 부르는 AI 에이전트는 크게 인지·결정·행동의 과정을 거친다. 센서입력 또는 데이터로 외부환경을 인지한 뒤, 머신러닝(ML) 기반으로 목표 달성을 위한 최적의 결정을 내리며, 필요한 멀티모달적 결과를 제공할 뿐만 아니라 로봇과 연계해 물리적 움직임이나 SW 명령을 실행하기도 한다.
기존에도 생성형 AI가 일종의 ‘비서(Assistant)’ 역할을 하긴 했지만, 이는 AI 에이전트와는 조금 다르다. 예를 들어 챗GPT 같은 LLM 기반 AI 챗봇은 사용자가 프롬프트 입력을 하면 즉시 학습데이터를 확인해 적합해보이는 응답을 내놓는데, AI 에이전트는 사용자의 목표를 이해하기 위해 구성요소를 마련하고 계획을 세우는 일부터 한다.
삼성SDS 인사이트 리포트 ‘AI 에이전트의 시대: 인공지능이 소프트웨어를 사용하는 패러다임의 변화’에 따르면, AI 에이전트가 일반 AI 챗봇과 구분되는 능력은 3가지로 요약된다.
하나는 ‘추론’이다. AI 에이전트의 핵심에는 계획과 추론을 담당하는 LLM이 있는데, LLM은 복잡한 문제를 세분화해 이를 해결하기 위한 계획을 세운 뒤 프로세스의 각 단계에 대한 이유를 제공한다.
다른 하나는 ‘행동’이다. AI 에이전트는 외부 프로그램과 상호 작용할 수 있다. 웹 검색, 데이터베이스(DB) 쿼리(Query), 코드 실행 등 다양한 소프트웨어(SW) 도구와 기타 AI 모델 등을 사용해 문제 해결 시기와 방법을 결정할 수 있다.
마지막은 ‘메모리 액세스’다. AI 에이전트는 에이전트의 사고 과정에 대한 내부 로그와 사용자와의 대화 기록 등 이전에 일어난 일에 대한 메모리에 접근할 수 있으며, 이를 통해 보다 개인화되고 상황에 맞는 상호작용을 할 수 있다.
특히 ‘행동’의 영역은 다른 AI와 AI 에이전트를 구분짓는 핵심적인 차별점이다. 컴퓨팅 역사가 시작된 이래 오직 사람만이 SW를 사용하는 주체였지만, 이제는 AI 에이전트도 SW를 사용한다. 즉, 사상 처음으로 SW가 SW의 사용 주체가 되는 것이다.
글로벌 컨설팅 기업 딜로이트에 따르면, 2025년에는 생성형 AI를 사용하는 기업의 25%가 AI 에이전트의 파일럿 프로젝트나 개념증명(PoC)을 시작할 것으로 예상되며, 오는 2027년이면 그 비율이 두배에 달할 전망이다. 딜로이트는 “2025년 후반부터 일부 AI 에이전트 애플리케이션이 실제 워크플로에 도입될 가능성이 있다”고 내다봤다.
이미 글로벌 빅테크들과 그들의 주요 AI 파트너들은 생성형 AI 기반 에이전트를 경쟁적으로 선보이고 있다. 마이크로소프트(MS)는 올해 11월 자사 M365 코파일럿에 자동화된 에이전트를 추가한다고 발표했고, 세일즈포스는 AI 에이전트를 탑재한 고객관계관리(CRM) 솔루션을 출시할 예정이다. 엔비디아는 올해 초 자율주행차량을 위한 LLM 기반 에이전트인 ‘에이전트 드라이버’를 출시했다.
다만 앞으로 AI 에이전트 기술이 계속 발전해나가면서 안전성과 신뢰성을 확보하는 것은 중요한 과제가 될 것이다. AI 에이전트가 사용하는 데이터 소스가 개방형 인터넷을 중심으로 한다면 편향된 정보나 할루시네이션(거짓정보생성)을 초래할 수 있다. 또한 AI와의 상호작용에서 데이터 프라이버시 침해가 발생할 가능성도 배제할 수 없다. 이에 따라 할루시네이션을 차단할 수 있는 기술이나 인간 윤리·문화에 어긋나지 않는 AI 가드레일(안전장치) 기술도 더욱 고도화돼야 한다는 지적이다.
권하영 기자(kwonhy@ddaily.co.kr)
'정보 !일반 상식 이야기' 카테고리의 다른 글
오픈AI, 더 똑똑한 고급 추론 AI 'o3' 공개…"수학, 과학 추론" (0) | 2024.12.22 |
---|---|
‘모바일 신분증’ 발급 400만명 돌파…내년엔 ‘주민등록증’도 스마트폰에 쏙 (0) | 2024.12.21 |
스마트워치 차면 암 위험 높아진다? ‘이것’이 문제 (0) | 2024.12.20 |
"서울서 비둘기 밥 주지 마세요"…걸리면 최대 100만원 과태료 (0) | 2024.12.20 |
하루 커피 5잔 vs 한 잔… 인지 기능 비교해 봤더니 (0) | 2024.12.20 |