오늘날 생성형 AI 시장에서 활용되는 모델의 주종은, 누가 뭐래도 ‘트랜스포머 (Transformer)’ 기반 모델들이죠. 텍스트, 이미지, 시계열 데이터 같은 순차 데이터를 처리하는데 큰 장점이 있는 트랜스포머는 현재 SOTA AI 모델의 근간일 뿐 아니라 계속해서 발전하고 있습니다.

물론, 트랜스포머도 완벽할 수는 없으니까, 많은 연구자들이 트랜스포머를 개선하기 위해서 계속해서 새로운 기법을 개발해 가면서 그 효율성을 높이고자 노력하고 있습니다 - 어텐션 메커니즘 자체의 개선에서부터 메모리라든가 아주 긴 컨텍스트의 처리 능력을 향상시키는데 이르기까지 다양한 영역에서요.

자, 여기에서 트랜스포머의 효율성을 높여 주기 위해서 고안된 10가지의 기법을 담은 논문들을 소개합니다:

  • Differential Transformer (DIFF Transformer)는 두 개의 소프트맥스 맵을 뺀 값으로 어텐션 스코어를 계산하는 Differential Attention Mechanism을 사용합니다. 기존의 트랜스포머가 ‘관련성이 낮은’ 컨텍스트에 과도한 어텐션을 할당하는 경향이 있고 이 때문에 핵심 정보 검색, 긴 컨텍스트의 모델링, 환각 현상 등에서 문제가 발생하죠. 이 접근 방식은 ‘관련성이 높은’ 정보에 어텐션을 집중시켜서 노이즈와 환각 현상을 줄입니다. —> [논문 보기]

  • Normalized Transformer (nGPT)는 임베딩, 은닉 상태 등을 포함한 모든 벡터를 초구면(Hypersphere) 상의 단위 길이로 정규화하는데, 각 레이어에서는 이렇게 정규화된 벡터를 올바른 출력값으로 조정합니다. 이런 설계 방식으로 학습 속도를 높여서, 정확도를 유지하면서도 트레이닝 단계를 4배 ~ 20배까지 줄일 수 있도록 해 줍니다. —> [논문 보기]

  • DART (Denoising Autoregressive Transformer)는 단계별로 일어나는 마르코프 과정 때문에 생기는 디퓨젼 모델의 한계를 극복하게 해 주는 새로운 모델인데요. 이 모델은 Autoregressive (자기 회귀) 방법과 디퓨젼 방법을 결합, 이미지 양자화 (Image Quantization)에 의존하지 않고 이미지 패치를 디노이징합니다. DART는 그리고 텍스트와 이미지 모두를 처리할 수 있습니다. —> [논문 보기]

  • Cottention 기법은 소프트맥스를 코사인 어텐션으로 대체해서, 메모리 사용량을 줄이고 더 긴 시퀀스에 대해 메모리의 복잡도가 선형으로만 증가하게 만듭니다. 이 기법은 소프트맥스 어텐션과 유사한 성능을 유지하면서도, 추론 과정에서 일정한 메모리만을 사용하기 위해서 RNN으로 재구성할 수 있습니다. —> [논문 보기]

  • DnD-Transformer는 벡터 양자화 (VQ; Vector-Quantization) 모델에서의 정보 손실 문제를 해결해서 이미지 생성을 더 잘 하게 해 줍니다. ‘심도’와 ‘시퀀스 길이’를 통해서 더 많은 이미지의 세부 사항을 예측하기 위한 2D 자기회귀 (Autoregression) 기법을 도입합니다. 기존 방법과 동일한 크기라면 더 높은 품질의 이미지를 생성하고, 텍스트와 그래픽이 포함된 이미지도 생성할 수 있습니다. —> [논문 보기]

  • RA-DT (Retrieval-Augmented Decision Transformer)는 ‘관련성 높은’ 과거 경험만을 저장하고 검색하도록 외부 메모리를 사용, ICL (In-Context Learning)을 더 효율적으로 할 수 있습니다. 로봇 시뮬레이션 등에서 우수한 성능을 보여주고, 더 짧은 컨텍스트를 사용할 때도 기존 방법들을 능가합니다. —> [논문 보기]

  • Transformer with Selective Attention: ‘Selective Attention’은 컨텍스트 내의 불필요한 요소들에 대한 어텐션을 제한해서 트랜스포머의 성능을 향상시켜줍니다. 이렇게 만들어진 트랜스포머는, 메모리 및 계산에 필요한 요구사항을 줄이고, 긴 컨텍스트를 가진 작업에서 효율성을 높여줘서, 자기보다 두 배의 파라미터를 가진 모델들과도 대등한 성능을 보여준다고 하네요. —> [논문 보기]

  • Graph Transformers는 ‘그래프 구조’의 데이터를 염두에 두고 설계된 신경망으로, 트랜스포머와 그래프 학습 기법의 강점을 결합합니다. Graph Attention 메커니즘을 구현하고, 노드, 엣지, 그래프 레벨에서 여러가지 작업을 하는데 활용할 수 있습니다. 여기서 소개한 논문은 Graph Transformer의 종류를 나열, 구분하고 여러 Graph Transformer의 발전 현황과 구현 내용을 확인합니다. —> [논문 보기]

  • Advancing Transformer Architecture in Long-Context Large Language Models A Comprehensive Survey: 여기에선 거대 언어모델 (LLM)들이 더 긴 입력값을 처리하는 능력을 향상시켜 온 최근의 발전 상황을 확인하고, 트랜스포머 아키텍처의 업그레이드, 평가 방법, 최적화 도구들에 대해 조사합니다. 더불어, 이후 LLM의 개선 방향, 도전 과제들에 대해서도 논의합니다. —> [논문 읽기]

  • Non-Stationary Transformers는 두 개의 모듈 - Series Stationarization (예측 가능성을 위해서)과 De-stationary Attention (중요한 변화를 포착하기 위해서) - 을 활용해서 AI 모델이 ‘갑작스러운 변화’를 예측할 수 있도록 하는 방법에 대해 논의합니다. 이 기법을 활용해서 다양한 모델에서 예측 성능을 향상시킬 수 있습니다. —> [논문 보기]

읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.

Reply

Avatar

or to participate

Keep Reading