[뉴스프리존,대전=이기종 기자] 한국과학기술원(KAIST)은 전기및전자공학부 및 AI 양자컴퓨팅 IT 인력양성연구센터 이준구 교수팀이 독일 및 남아공 연구팀과의 협력 연구를 통해 비선형 양자 기계학습 인공지능 알고리즘을 개발했다고 8일 밝혔다.
양자 컴퓨팅은 고전 컴퓨팅과는 달리 큐비트(Qubit, Quantum Bit, 양자컴퓨팅 정보처리의 기본 단위)의 개수에 따라 정보 공간의 차원이 기하급수적으로 증가하기 때문에 이론적으로 고차원 정보처리에 있어 기하급수적으로 뛰어난 성능을 낼 수 있다.
또 양자 인공지능은 양자컴퓨터의 발전과 함께 현재의 인공지능을 앞설 것으로 크게 기대되고 있으나 연산 방법이 전혀 달라 새로운 양자 알고리즘의 개발이 필요하다.
인공지능의 한 분야인 기계학습은 주어진 입출력 데이터간의 상관관계를 학습해 정확한 관계식 도출과 적용 없이 새로운 입력값에 대한 출력값을 예측해내는 정보처리 기술이다.
이 기계학습에 있어 중요한 문제 중 하나는 주어진 데이터의 특징(feature)을 구분해 분류하는 것이다.
실례로 동물 이미지 학습데이터에서 입, 귀 등의 특징을 바탕으로 분류하기 위한 결정 경계(decision boundary)를 학습하고 새로운 이미지가 입력되었을 때 개 또는 고양이로 분류하는 작업을 생각해볼 수 있다.
이 과정에서 데이터의 특징들이 잘 나타나는 경우에는 선형적 결정 경계만으로 분류할 수 있다.
그러나 입과 귀 모양의 특징으로만 개와 고양이를 분류하기 쉽지 않고 새로운 결정 경계를 찾기 위해 특징에 관한 정보 공간의 차원을 확장해야 하는데 이러한 과정에서 비선형 커널 기술이 필요한 실정이다.
이번 연구진은 이러한 제한점을 해결하기 위해 학습데이터와 테스트데이터를 양자 정보로 생성한 후 양자 정보의 병렬연산을 가능하게 하는 양자포킹 기술과 간단한 양자 측정기술을 조합해 양자 데이터 간의 유사성을 효율적으로 계산하는 비선형 커널 기반의 지도학습을 구현하는 양자 알고리즘 체계를 만들었다.
이 교수팀이 개발한 알고리즘은 저차원 입력 공간에 존재하는 데이터들을 큐비트로 표현되는 고차원 데이터 특징 공간(feature space)으로 옮긴 후 양자화된 모든 학습데이터와 테스트데이터 간의 커널 함수를 양자 중첩을 활용해 동시에 계산하고 테스트데이터의 분류를 효율적으로 결정한다.
이때 사용되는 양자 회로의 계산 복잡도의 경우 학습 데이터양에 대해서는 선형적으로 증가하나 데이터 특징 개수에 대해서는 불과 로그(log)함수로 매우 천천히 증가하는 장점이 있다.
이어 양자 회로의 체계적 설계를 통해 다양한 양자 커널 구현이 가능함을 이론적으로 증명했다.
커널(Kernel, 데이터 간의 유사성을 정량화하는 함수) 기반 기계학습에서는 주어진 입력 데이터에 따라 최적 커널이 달라질 수 있으므로 다양한 양자 커널을 효율적으로 구현할 수 있게 된 점은 양자 커널 기반 기계학습의 실제 응용에 있어 매우 중요하다.
특히 IBM이 클라우드 서비스로 제공하는 다섯 개의 큐비트로 구성된 초전도 기반 양자 컴퓨터에서 이번에 개발에 성공한 양자 기계학습 알고리즘을 실험적으로 구현해 양자 커널 기반 기계학습의 성능을 실제 시연으로 이를 입증하는 데 성공했다.
박경덕 연구교수는 "연구팀이 개발한 커널 기반 양자 기계학습 알고리즘은 수년 안에 상용화될 것으로 예측되는 수백 큐비트의 NISQ(Noisy Intermediate-Scale Quantum) 컴퓨팅의 시대가 되면 기존의 고전 커널 기반 지도학습을 뛰어넘을 것"이라면서 "복잡한 비선형 데이터의 패턴 인식 등을 위한 양자 기계학습 알고리즘으로 활발히 사용될 것"이라고 말했다.
KAIST 박경덕 연구교수가 공동 제1저자로 참여한 연구결과는 국제 학술지 네이처 자매지인 ‘엔피제이 퀀텀 인포메이션(npj Quantum Information)' 에 2020년 5월 6권에 게재됐다.
이 연구는 각각 한국연구재단의 창의 도전 연구기반 지원 사업과 한국연구재단의 한-아프리카 협력기반 조성 사업, 정보통신기획평가원의 정보통신기술인력 양성사업(ITRC)의 지원을 받아 수행됐다.