업계 최고 성능 GPU보다 50% 빠르고, 가격 대비 성능 2.4배 높였다
(서울=내외방송) 비용은 줄이고, 성능은 두 배 높인 효율성 높은 AI 반도체가 챗GPT(대화형 인공지능 서비스) 시장을 이끌 것으로 전망된다.
KAIST(한국과학기술원)는 "김주영 전기및전자공학부 교수 연구팀이 챗GPT에 핵심으로 사용되는 거대 언어 모델의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다"고 4일 밝혔다.
연구팀이 개발한 AI 반도체인 'LPU(Latency Processing Unit)'는 메모리의 대역폭(주파수 범위) 사용을 극대화해 추론에 필요한 모든 연산을 빠른 속도로 수행 가능한 연산 엔진을 갖췄다.
또, 자체 네트워킹을 내장해 여러 개의 가속기로 확장이 용이하다.
LPU를 기반으로 한 가속 어플라이언스 서버(운영 체제 등을 설치하지 않아도 전원만 접속하면 바로 사용할 수 있는 서버)는 업계 최고 성능 GPU(그래픽 처리장치)인 '엔비디아 A100' 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배 높였다.
거대 언어 모델을 운영하기 위해서는 고성능 GPU가 필요한데, 연구팀의 AI 반도체 기술은 거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 해결책으로 평가받고 있다.
김 교수는 "미래 거대 인공지능 연산을 위한 새로운 프로세서인 'LPU'로 글로벌 시장을 개척하고, 빅테크(대형 IT 기업) 기업들의 기술력보다 우위를 선점하겠다"고 말했다.
김 교수의 창업기업인 (주)하이퍼엑셀이 수행한 이 연구는 최근 미국 샌프란시스코에서 진행된 '국제 반도체 설계 자동차 학회(Design Automation Conference, DAC)에서 공학 부문 최고 발표상을 수상했다.