탐색공간 확장해 최적화된 신경망 찾아
연산 자원 절감해 알고리즘 실행 속도↑...자율주행·로봇공학 기대
(내외방송=정지원 기자) 여러 작업을 동시에 수행해도 성능 저하가 발생하지 않는 인공지능 딥러닝 기술이 탄생했다.
DGIST(대구경북과학기술원)는 "임성훈 전기전자컴퓨터공학과 교수 연구팀이 신경망 구조 탐색 기술을 통해 '다중 태스크 딥러닝 기술'을 개발했다"고 12일 밝혔다.
신경망 구조 탐색 기술은 인공지능 기계 학습과 딥러닝에서 모델의 아키텍처(컴퓨터 시스템 전체의 설계방식)을 자동으로 찾는 기술이며 적용 시 어떤 모델이 가장 잘 작동하는지 찾아내 최적의 모델을 만들어낸다.
연구팀은 기존 연구의 선형적인(선처럼 길게 일렬로 나아가는) 탐색공간을 확장하고, 작업 사이에 관계성을 학습하면서 동시에 작업마다 최적화된 신경망을 찾는 방법을 고안했다.
뿐만 아니라 탐색한 신경망 구조의 연산 자원을 효율적으로 사용하면서도 성능을 최대한 유지할 수 있는 기술도 개발했는데, 이는 연산 자원을 절감해 알고리즘의 실행 속도를 효과적으로 향상시킬 수 있다.
연구팀은 앞으로 빠른 속도로 여러 작업을 수행해야 하는 자율주행과 로봇공학 등 인공지능 분야에서 실용적이고 광범위한 활용을 기대하고 있다.
임 교수는 "이번 연구는 기존의 좁은 인공지능의 틀을 깨고, 범용 인공지능에 한발짝 다가서게 하는 기술"이라고 말했다.
한편, 이번 연구는 국제학술대회 'IEEE 컴퓨터 비전 및 패턴 인식 컨퍼런스(IEEE Conference on Computer Vision and Pattern Recognition)'에 최근 발표됐다(논문명: Dynamic Neural Network for Multi-task Learning Searching across Diverse Network Topologies).