• Turing Post Korea
  • Posts
  • AGI로 가는 길을 탐색하는 다각도의 연구 8選

AGI로 가는 길을 탐색하는 다각도의 연구 8選

튜링 포스트 코리아에서도 몇 차례 AGI와 관련된 포스팅을 하거나 이와 관련된 연구들을 다뤄 왔습니다. ‘사람 수준’의 추론 능력을 갖춘 AI 시스템을 만들고, 전반적인 AI 시스템의 지능을 향상시키는데 단초를 제공할 거라고 생각하는 여러 가지 기법, 방법론들이 있었지만, 아직 어떤 기술이 AGI로 가는 핵심이다’라고 많은 사람들이 공감하는 특정한 길이 있는 것 같지는 않아요. 그렇지만, 현재 어떤 각도의 접근 방법들이 AGI로 가는 탐색의 과정에 있구나 알아보는 건 의미도 있고 흥미로운 일이기도 하죠.

지금까지 튜링 포스트 코리아에서 다양하게 커버했던 기법과 연구들을 중심으로, AGI로 가는 길을 모색하는 여러 가지 접근 방법을 정리해 보겠습니다.

아래, 8가지 그룹으로 정리한, AGI를 목표로 하는 - 또는 관련성이 있다고 판단되는 - 연구들입니다:

1. 구글 딥마인드의 세 가지 연구

  • 알파고 (AlphaGo)는 ‘바둑’을 완벽하게 플레이하기 위해 개발되었는데, 2016년 있었던 이세돌 9단과의 대국 때문에 우리나라에는 잘 알려져 있죠. 강화 학습과 결합된 두 개의 신경망을 사용해서 AI 모델의 추론, 그리고 창의력을 향상시킵니다. —> [자세히 보기]

  • 알파폴드 (AlphaFold)는 단백질의 상호작용을 정확하게 예측하기 위한 도구로 개발되었는데, 아미노산 서열의 관계를 이해하기 위해 훈련된 어텐션 메커니즘, 그리고 단백질을 네트워크로 표현하는 그래프 신경망을 구현하고 있습니다. —> [자세히 보기]

  • 알파프루프 (AlphaProof)알파지오메트리 2 (AlphaGeometry 2)는, 고급의 수학적 추론을 위해 만들어진 시스템인데요. 다음과 같은 접근 방식을 기초로 해서 국제 수학 올림피아드에서 은메달까지 획득한 바 있습니다:

    • AlphaGeometry는 패턴인식을 위한 ‘Neural Language Model’과 의사결정을 위한 Symbolic Deduction Engine을 결합합니다.

    • AlphaProof는 수학적인 추론에 알파고의 강화학습 알고리즘을 활용하고, Natural Problem을 Lean으로 변환해서 새로운 수학적 문제를 생성해 냅니다. —> [자세히 보기]

2. 신경 기호학적 (Neuro-symbolic) AI 시스템

  • Neuro-symbolic AI 시스템은 패턴 인식, 그리고 직관적인 아이디어를 잡아내는 데 탁월한 ‘신경망’, 그리고 논리, 규칙, 구조화된 지식을 강조하는 ‘상징적 추론 방법’을 결합한 하이브리드 아키텍처로, 사람이 의사결정에 논리와 직관을 모두 사용하는 방식을 모방한 것입니다. —> [자세히 보기]

3. LAA : LLM 기반의 자율 에이전트 (Autonomous Agent)

  • LAA는 ‘상징주의 인공지능’, 그리고 ‘연결주의 인공지능’ 간의 시너지를 보여주는 접근 방식입니다. 신경망, 벡터 임베딩, 기호학적 추론을 모두 결합한 ‘Neuro-Vector-Symbolic’ 접근 방식을 사용하는데, 시스템의 ‘벡터’ 부분이 대규모의 데이터셋을 처리하고 상황에 맞는 학습 등의 작업을 수행하는데 기여합니다. LAA는 다양한 작업을 처리할 수 있는, 좀 더 자율적이면서 지능적인 시스템의 한 예라고 할 수 있습니다. —> [자세히 보기]

4. 기계 심리학 (Machine Psychology)

  • ‘기계 심리학’은 ‘휴리스틱과 편견 (Biases)’, ‘사회적인 상호작용’, ‘언어의 심리학’, ‘학습’이라는 네 가지 패러다임을 근간으로 해서 LLM의 행동을 이해하는 틀을 소개합니다. 이 분야의 연구자들은, 인간 심리학에서 영감을 얻은 실험들을 통해서 LLM의 더 깊은 작동 원리를 탐구하려고 합니다. —> [자세히 보기]

5. Self-Play Mutual Reasoning (rStar)

  • Self-Play Mutual Reasoning (rStar)은, 두 개의 각기 다른 모델이 문제에 대해서 논의를 하면서 해결책을 찾는 방식입니다. 첫 번째 모델은 몬테카를로 트리 서치(MCTS)을 사용해서 추론 경로를 만들어내고, 두 번째 모델은 첫 번째 모델이 만들어낸 추론 경로를 검증하는 역할을 합니다. MCTS는 사람과 유사한 다양한 추론 작업을 진행해서, 여러 가지의 고품질 답변을 제공하도록 합니다. —> [자세히 보기]

6. STRATEGIST

  • STRATEGIST는 특히 다른 플레이어를 '능가'해야 하는 ‘멀티 에이전트 게임’ 환경에서 LLM이 전략적인 기술을 배우고 향상시킬 수 있게 고안된 방법입니다. 몬테카를로 트리 검색(MCTS)을 사용해서 의사 결정을 개선하고, 모델이 ‘이중적인 수준’ - 높은 수준의 전략과 낮은 수준의 행동 - 에 걸쳐서 '사고'하도록 가르치며, 게임에서 사용할 수 있는 대화를 만들어 냅니다. —> [자세히 보기]

7. LLM이 완전히 새로운 연구 아이디어를 만들어낼 수 있는지 탐색하는 4가지 연구

8. 어텐션 헤드 (Attention Heads) 관련 서베이

  • LLM의 어텐션 헤드에 대한 서베이에서, 연구자들은 ‘네 가지 단계’ - 지식 회상 (Knowledge Recalling), 맥락 식별 (In-Context Identification), 잠재적 추론 (Latent Reasoning), 표현 준비 (Expression Preparation) - 를 통해서 ‘LLM의 기능’과 ‘사람의 두뇌 프로세스’와 비교합니다. 더불어서, 기계가 사람과 같은 사고와 행동을 더 잘 할 수 있도록 ‘심리학’의 개념을 AI에 적용할 것을 제안합니다. —> [자세히 보기]

읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.

Reply

or to participate.