안녕하세요. 한국경제 기사로 소개 된 인공지능 기사에 대해 공유합니다.
"이번엔 질 수 없다" 구글의 반격…'비밀 병기' 내놓는다
창간 59주년 기획 '엔드 테크가 온다'
'구글 AI 전초기지' 찰스턴이스트 캠퍼스
"스스로 영화 한 편 만든다"
구글 'AI 끝판왕' 멀티모달 창조 중
'생성형AI 고도화' 연구에 총력
텍스트만 인지하는 챗GPT 넘어
이미지·비디오까지 분석 가능
미국 캘리포니아주 마운틴뷰엔 구글 글로벌 본사인 구글플렉스 옆에 최근 찰스턴이스트 캠퍼스라는 새 건물이 문을 열었다. 구글 인공지능(AI) 개발을 총괄하는 핵심 기지다. 지난 7월 AI 관련 조직이 입주했다.
마이크로소프트(MS)와 오픈AI에 일격을 당한 구글은 4월 딥마인드와 브레인을 구글 딥마인드로 통합하며 반격을 준비하고 있다. 찰스턴이스트 캠퍼스는 이를 위한 전진 기지다. 진격 방향은 ‘멀티모달(Multi Modal)’이다. 텍스트, 이미지, 음성 등 여러 종류의 데이터를 동시에 처리할 수 있는 AI 기술이다.
‘2차 대전’ 치르는 생성형 AI
구글은 AI 기술을 고도화하기 위한 로드맵을 수립해 착실히 이행 중이다. 오픈AI가 선보인 챗GPT를 뛰어넘을 비밀 병기를 내놓기 위해 공을 들이고 있는 것으로 알려졌다.
챗GPT는 생성형 AI의 대표적인 서비스다. 채팅하듯 인공지능과의 대화를 통해 슈퍼컴퓨터가 할 수 있을 법한 답변을 얻을 수 있다. 오픈AI의 GPT-3는 무려 3000억 개에 달하는 학습 데이터 토큰을 학습한 것으로 알려졌다. 토큰은 AI가 답변이나 글을 쓸 때 꺼내 쓸 수 있는 일종의 AI용 어휘 사전이다. 챗GPT가 대규모언어모델(LLM)에 기반한 서비스로 불리는 이유다.
구글은 뛰어난 인공지능 기술을 보유하고 있지만 AI 기술을 상품화하는 데 주저했다. 20여 년간 절대 우위를 지키고 있는 검색 분야에 AI를 적용했다가 자칫 핵심 수익원인 광고에 악영향을 줄 수 있다는 판단에서다. 하지만 챗GPT가 모든 것을 바꿨다. 구글이 지난 5월 발표한 LLM 팜2는 약 3조6000억 개의 토큰으로 훈련한 것으로 알려졌다. 지난해 출시된 팜은 7800억 개 토큰으로 학습했다.
“멀티모달 AI 주도권 차지해야”
구글을 비롯한 미국의 빅테크는 자연어에 기반한 LLM을 뛰어넘을 ‘멀티모달 AI’에서 주도권을 쥐기 위해 사활을 건 경쟁을 벌이고 있다. 영화 ‘어벤져스’에 나오는 AI 개인 비서 ‘자비스’를 현실에서 구현하겠다는 것이다. 오픈AI는 최신 모델인 GPT-4를 올 3월 내놓긴 했지만 텍스트 외에 음성과 이미지, 비디오로 출력값을 보여주는 수준의 멀티모달 기술을 구현하지는 못했다.
구글은 이르면 다음달 공개할 차세대 LLM ‘제미니’를 통해 멀티모달 AI 기술 부문에서 경쟁우위에 서겠다는 전략으로 막바지 연구개발에 집중하고 있다.
주빈 가라마니 구글 딥마인드 부사장은 지난 5월 연 ‘구글 연례 개발자 회의(I/O)’에서 “멀티모달 AI는 의료 진단, 가상 비서, 자율주행 차량 등 많은 분야에서 활용할 수 있다”며 “질병 진단 시 AI가 텍스트와 의료 영상을 동시에 분석해 까다로운 질병을 정확하고 신속하게 진단할 수 있다”고 설명했다.
제미니는 GPT-4보다 연산량 기준으로 다섯 배 이상 많은 양의 학습을 하는 것으로 알려졌다. 순다르 피차이 알파벳 최고경영자(CEO)는 지난 8월 열린 ‘구글 클라우드 넥스트 2023’ 행사에 기조연설자로 나서 “AI가 모든 분야, 산업, 비즈니스에 영향을 미치고, 우리가 생활하고 일하는 방식도 크게 변화할 것”이라며 “AI 전환은 우리 생애에서 가장 심오한 변화가 될 것”이라고 강조했다.
빅테크의 지향점은 ‘누구나 쉽게 영화감독이 될 수 있는 수준’으로 AI 학습량을 늘리는 것이다. 하지만 아직 갈 길이 멀다는 지적이 많다. 비디오만 해도 프레임 하나하나를 어떻게 인식하고 구현할지가 여전히 풀어야 할 기술적 과제인 것으로 알려졌다.
투자자본수익률(ROI) 문제도 난관이다. 현재의 AI 기술은 학습 및 추론 과정에 막대한 에너지를 소모하고, 수십억달러의 투자비가 들어간다. 클라우드 구축과 운영 과정에서 많은 탄소를 배출하기 때문에 장기적으로 지속 가능하지 않다는 점도 지적되고 있다. 높은 추론 효율성을 유지하면서 학습비용을 낮춘 멀티모달 모델을 개발하는 기업이 앞으로 AI 시장에서 퍼스트무버 역할을 할 것이라는 얘기다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
"韓, AI 경쟁력 10위권…제조업 강점 살려 산업용 모델 키워야"
이재욱 서울대 컴퓨터공학부 교수
"오픈AI처럼 인재 영입도 필수"
초거대 인공지능(AI) 전쟁이 한창인 상황에서 한국이 나아가야 할 방향은 무엇일까. 이재욱 서울대 컴퓨터공학부 교수(사진)는 “대규모언어모델(LLM)과 생성형 AI는 하나의 도구일 뿐, 이것을 어떻게 창의적으로 활용하느냐는 빅테크만의 영역이 아니다”고 강조했다.
LLM을 헬스케어, 교육, 엔터테인먼트, 커머스 등 어느 분야에 적용하느냐는 해당 분야의 기업 몫이라는 뜻이다. 하정우 네이버클라우드센터장은 이를 인공지능 ‘플러스X’ 전략이라고 부른다. 마치 방정식에서 변수 X처럼 다양한 AI 기술이 산업으로 연결될 수 있다는 얘기다. 제조업에 강점이 있는 한국은 첨단 제조에 특화한 AI를 개발할 수 있는 잠재력이 크다. 이 교수는 “아직 데이터 보안 등 해결해야 할 기술적 문제가 있지만 국내 제조업의 경쟁력을 지렛대로 하는 산업용 AI는 매우 유망한 분야”라고 말했다.
이 교수는 AI 시대에도 플랫폼 종속화가 일어날 수 있다는 점은 지적하면서도 “모든 혁신에서 위기와 기회는 함께 온다”고 강조했다. 예를 들어 교육 분야에서 생성형 AI는 인류가 지식을 창출하고 학습하는 방식을 근본적으로 바꿀 것이라는 설명이다. 그는 “소프트웨어 분야에서도 이미 코파일럿 등의 AI 기반 자동 코딩 기술이 활발히 사용되고 있고, 더 나아가 코딩을 배우지 않은 일반인도 인간의 언어를 통해 원하는 코드를 생성할 수 있는 수준까지 발전할 것”이라고 예측했다.
플랫폼 구축에 대해서도 판을 바꿀 기회는 충분히 있다고 말했다. 그는 “해외에서는 데이터브릭스, 스노우플레이크, 허깅페이스 등도 AI 시대 플랫폼을 목표로 움직이고 있고 국내에도 역량 있는 기업이 여럿 있다”고 말했다.
한국은 AI 기술 경쟁력 부문에서 상위 10위권에 속한다고 이 교수는 분석했다. 구글이 아닌 토종 검색 엔진이 시장점유율 1위인 국가는 중국 러시아 한국 일본 정도뿐이다. 이 교수는 “한국 기업의 경쟁력 강화를 위해 수행해야 할 핵심 과제 중 하나는 인적 교류”라며 “오픈AI가 빠르게 성장한 이유 중 하나가 구글 브레인을 포함해 다른 빅테크의 핵심 인력을 흡수한 덕분”이라고 말했다. 이어 “실리콘밸리의 혁신 법칙은 의외로 단순하다”며 “최고의 대우와 개방적인 문화를 바탕으로 전 세계에서 가장 우수한 인력을 빨아들이고, 촘촘한 인적 네트워크를 통해 혁신을 빠르게 전파한다”고 소개했다. 이 과정에서 인력의 이직이 지식 확산에 큰 역할을 한다는 것이다. 이 교수는 “LLM 경쟁력을 단기간에 끌어올리려면 국내외 네트워크를 확장하고, 핵심 인력을 적극 유치할 필요가 있다”고 말했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
"초거대 AI가 곧 국력"…혈투 벌이는 美·中
中, AI 위해 '반도체 독립' 추진
구글 '플러그인 생태계' 구축나서
데이터·전력 적게 쓸 로직 연구도
세계 각국은 인공지능(AI) 전쟁의 최종 승자가 되기 위해 혈전을 벌이고 있다. 중국이 ‘반도체 독립’을 추진하는 것은 AI를 움직일 데이터센터에 들어갈 최신형 반도체를 미국·일본(설계), 한국·대만(제조) 등에 의존하지 않기 위해서다. 빅테크는 국가 간 AI 전쟁을 수행하는 대표 선수들이다. 미국과 중국의 빅테크가 반드시 차지하려는 최종 목표는 초거대 AI 플랫폼이다.
하정우 네이버클라우드 센터장은 그의 저서인 <ai>에서 “앞으로 국가를 구분하는 기준은 초거대 인공지능을 보유했느냐가 될 것”이라고 지적했다. 구글 등은 멀티모달 AI를 구현하기 위해 총력을 기울이는 동시에 플러그인 생태계 구축에도 힘을 쏟고 있다. 예컨대 사용자가 원하는 비디오를 생성형 AI가 출력하기 위해 비디오 합성 플러그인을 연결, 비디오앱을 호출해 처리하는 방식을 택할 수 있다는 얘기다. 영화 어벤져스에서 AI 비서 ‘자비스’가 주인공 요구에 맞도록 다양한 앱을 불러오는 것에 비유할 수 있다.
챗GPT 이후 차세대 AI 기술 개발의 또 다른 화두는 효율성이다. 대규모언어모델(LLM)을 운영하기 위한 슈퍼컴퓨터 인프라 구축과 전력 비용이 천문학적인 규모이기 때문이다. 업계에선 컴퓨팅 성능 등을 고려했을 때 오픈AI가 챗GPT를 운영하는 데 하루 70만달러(약 9억원) 이상이 소요될 것으로 추정했다. 앞으로 보다 적은 데이터와 전기로 성능 좋은 AI를 개발해야만 경쟁 우위를 점할 수 있다는 것이다.
현재 LLM을 훈련하는 방식은 ‘빈칸 채우기’다. 문장에 빈칸을 만들고, 적절한 단어로 채우는 작업을 반복하며 정확성을 높인다. 훈련 강도를 높이기 위해선 방대한 데이터 세트와 이를 빠르게 학습할 수 있는 대규모의 슈퍼컴퓨팅 인프라가 요구된다. 이를 구동하는 데 요구되는 전력 소모량까지 모두 돈과 직결된다.
이 때문에 다른 종류의 하드웨어 구조가 활발히 연구되고 있다. ‘폰 노이만 병목’으로 알려진 프로세서와 메모리 칩 간 데이터 전송 효율을 높이는 것이 핵심이다. 대표적인 것이 ‘프로세싱 인 메모리’ 아키텍처다. 메모리 칩 안에 작은 계산 로직을 적용해 간단한 계산은 메모리 칩 내부에서 수행하도록 하는 구조다.
삼성전자와 SK하이닉스에서 이미 D램 기반의 프로세싱 인 메모리 칩 시제품을 내놨다. 이재욱 서울대 컴퓨터공학부 교수는 “향후 이 기술이 상용화되면 효율성을 상당 부분 개선할 것”이라고 말했다.
인간의 뇌와 신경세포 구조 및 특성을 모방해 만든 ‘뉴로모픽 반도체’도 차세대 AI 기술로 주목받고 있다. 뉴로모픽은 뉴런 간 스파이크를 통해 정보를 주고받는 AI 반도체를 말한다. 인텔, IBM 등이 뉴로모픽 반도체를 개발하고 있다. 현재 개발 수준은 초기 단계이고 정확도가 낮아 비교적 단순한 작업에만 적용하지만 높은 신뢰성을 제공하는 뉴로모픽 반도체가 나올 경우 전력 소모를 획기적으로 낮출 것으로 예상된다. 적은 전력으로도 높은 성능을 구현할 수 있다면 AI 기술이 다시 한번 퀀텀 점프할 수 있다는 것이다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
출처: 한국경제
'문과생 DT 정복기 > 디지털트랜스포메이션' 카테고리의 다른 글
[기술] 노벨상 유전자 가위 상용화 '인류가 달에 간 것보다 큰 사건', 만성질환 치료 가능 (0) | 2023.12.12 |
---|---|
[AI] 저출산 시대 AI 플랫폼으로 '승부'…육아 스타트업의 변신 (0) | 2023.12.10 |
[AI] 美 미술관에 걸린 그림 AI 그림 (0) | 2023.06.28 |
[로봇] 국내 데뷔하는 '로봇 지휘자' (0) | 2023.06.28 |
[기술/테크] "스마트폰 이을 캐시카우" 삼성, 퀄컴·애플 맞붙는 XR기기 (0) | 2023.05.29 |