본문 바로가기

AI

AI 에이전트가 ‘친구 사귀기’를 배우다: 내생적 사회 유대 형성으로 온라인 인간 커뮤니티 시뮬레이션에 한 걸음 다가선 최신 LLM 연구

안녕하세요! 오늘은 2025년에 발표된 최신 논문 “Learning to Make Friends: Coaching LLM Agents toward Emergent Social Ties”를 풀어드리려고 합니다. 인간의 온라인 소셜 행태를 대형 언어 모델(LLM) 에이전트 다중 시뮬레이션을 통해 모사한 이 연구는 최근 AI의 사회적 능력에 대한 관심 속에서 매우 주목받고 있는데요, 특히 기존 연구들과 명확히 차별화되는 기술적 접근법에 대해 상세히 다뤄볼게요.


1. 이 논문, 뭐가 특별할까요?

기존 LLM 기반 멀티 에이전트 연구는 보통 다음과 같은 한계가 있었습니다.

  • 페르소나의 획일성: 단순한 프롬프트로 설정한 페르소나는 동일한 언어 패턴을 띠어 ‘사람다움’이 떨어짐
  • 학습 메커니즘 미흡: 온라인 대화처럼 개방적이고 비구조적 상황에서 적응하고 학습하는 모델 부족
  • 사회 네트워크 생성 한계: 사전에 정의된 네트워크에서만 작동하거나 실제 인간 사회성의 핵심 원리(동질성, 상호성 등)를 반영하지 못함

반면 이 논문은 다음 세 가지 핵심적 기술적 진보를 이룩했습니다.

  • ‘대화룸’이라는 동적 환경 설계: 공개 게시와 1:1 다이렉트 메시지 등 서로 다른 채널에서 에이전트가 전략을 다르게 구사할 수 있도록 함
  • 행동 보상을 통한 목표지향 학습: 사회적 상호작용, 정보 탐색, 자기 표현, 조정 및 정서적 지원 등 실제 사용자 동기를 수학적으로 변환해 에이전트 학습 보상으로 명확히 정의
  • 내생적 사회 유대 형성 기제: 고정된 네트워크 대신 에이전트 간 상호작용에서 사회적 유대가 자발적으로 생성·증가·감소하는 모델 설계

즉, 단순히 ‘컨텐츠 주고 받기’를 넘어서서, 실제 온라인 인간 공동체와 유사한 사회 구조가 자연스럽게 생성되는 것을 모델링했다는 점에서 기존 연구 대비 기술적 깊이와 실용성이 뛰어납니다.


2. 기술적 주요 특징들 자세히 파헤치기

페르소나 생성의 3계층 구조

  1. 빅파이브 등 심리학 기반 성격 추론
    실제 온라인 대화에서 추출한 텍스트 특징(예: 빈번한 이모지, 부정적 문장 등)을 활용해 외향성, 친화성, 위험 선호도 등 다층적 성격 특징을 자동으로 부여
  2. 행동 목표 기반 과제(Task) 설정
    왜 해당 에이전트가 소셜 활동에 참여하는지(정보 탐색, 사회적 상호작용, 자기표현 등)를 명확히 하여 행동 다양성 극대화
  3. 경험·관계·의견을 저장하는 메모리
    장기기억처럼 이전 대화, 상대와의 관계, 쟁점 등 정보를 저장해 대화가 시간에 따라 누적·변화하는 인간 행동 특징 반영

학습 및 행동 계획 : ‘계획–실행–성찰’ 루프

  • 매 라운드마다 이전 라운드 상호작용과 보상 정보를 참고하여 3가지 액션(게시, 댓글, DM, 무반응 중 선택) 계획
  • 실제 콘텐츠 생성은 GPT-4o mini 기반 LLM이 수행
  • ‘코치’ 역할의 별도 프롬프트를 제공해 에이전트가 목표 보상편중 없이 다양한 전략을 쉽게 세울 수 있도록 지원

행동 보상의 다차원 조합

논문은 온라인 사용자의 심리 사회적 동기 이론(Uses and Gratifications Theory)에 근거해

  • SOC(사회적 상호작용)(예: 메시지 주고받기),
  • INF(정보 탐색)(새로운 주제 발견 및 다양성 확보),
  • PRE(자기표현)(게시글 작성과 반응 획득),
  • COORD(조정·협업)(언급, 답장 통한 상호작용 유지),
  • EMO(정서적 지원)(긍정/부정 감정 신호 반영)

이 다섯 가지 보상으로 구성된 합성 보상 함수를 만듭니다. 이를 통해 에이전트들은 단순한 언어 생성 그 이상으로 현실적인 사회적 행동과 네트워크 효과를 내도록 유도됩니다.

사회 유대(tie) 형성 증감 메커니즘

  • 에이전트가 특정 라운드에 누군가를 ‘직접적으로 주소하거나’(DM, 멘션)
  • ‘상대 콘텐츠에 댓글·좋아요 등 반응하는지’ 두 가지 채널을 활성화 신호로 활용
  • 활동 여부에 따라 유대 강도는 활동시 증가, 미활동시 시간 경과에 따른 감쇠를 반영
  • 상대적 호혜성, 신선한 정보 제공, 정서적 톤 등 ‘증거 점수(evidence score)’를 계산하여 세밀하게 관계 강도 조정

이 업데이트 공식(수식 1)은 사회학-네트워크 이론 기반으로 강도 변화를 자연스럽게 모사하며,

단순 플레인 텍스트 분석이 아니라 LLM 프롬프트 자체로 유대 점수 산출 옵션까지 제공합니다.


3. 기존 논문과 차별점은 무엇일까요?

  • 우선 [Park et al. 2023 Generative Agents] 등은 가상인간의 일상 계획을 시뮬레이션 했지만, 본 논문은 ‘온라인 공간’의 공개·사적 채널을 모두 모델링합니다. 즉, 현실 소셜미디어 대화의 복합성에 더 근접하죠.
  • [Li et al. 2023 CAMEL] 나 LangChain, AutoGen은 에이전트 협업에 집중하지만, 본 논문은 에이전트 간 사회적 유대가 자발적·동적으로 형성되는 메커니즘을 도입해 사회적 네트워크 ‘구조’까지 생성합니다.
  • 성격형성(PERSONA)도 단순 프롬프트 조합이 아니라 빅파이브 진단기반 다중 레이어가 독창적이고, 이에 따른 행동 보상 설계까지 맞물려 ‘사람다움’과 ‘행동 다양성’을 보다 지능적으로 구현했다는 점에서 차별화합니다.
  • 네트워크 분석 관점에서도 [Chang et al. 2025] 같은 연구는 LLM이 만든 네트워크를 분석만 한 반면, 본 연구는 네트워크 생성과 진화를 통합적 시뮬레이션 및 정책 테스팅 플랫폼 형태로 만들었습니다.

4. 실제 실험과 성과 - 기술적 가치는?

  • 총 30명 에이전트, 15 라운드 시뮬레이션에 GPT-4o mini 적용
  • ‘코치’의 도움으로 일부 보상 학습(특히 조정·정서 지원)은 초기 가속화 가능
  • 학습 난이도는 보상 목표별로 편차 확연: 정보 탐색은 쉽고, 사회적 조정 등은 어려움
  • 자연스럽게 소셜 커뮤니티처럼 클러스터링·상호 연결되고 현실 네트워크 메트릭과 근접
  • 텍스트 기반 네트워크 가중치 산출 방식은 휴리스틱 대비 안정성 높음

따라서 이 플랫폼은 단순히 LLM 행동 모방 수준을 넘어서, 사회과학적 이론을 기반으로 한 온라인 인간 집단 행동 연구·정책 평가용 도구로서 잠재력이 엄청납니다.


5. 마무리: AI와 사회적 연결 고리, 어떻게 발전할까?

이 논문은 “AI가 어떻게 ‘친구 사귀기’를 배울 수 있을까?”라는 본질적 질문에 기술적으로 답하며, 실세계 온라인 사회의 복잡다단한 상호작용과 네트워크 구조를 모사하는 데 한 걸음 다가갔습니다. 기존의 단일 에이전트 성능 평가나 단순 에이전트 협업 연구들과 달리, 이 논문은 에이전트 간 사회적 유대의 내생적 생성과 강화·약화 메커니즘을 엄밀히 설계·검증했다는 점에서 연구적·기술적 가치가 큽니다.

앞으로 더 많은 에이전트, 장시간 시뮬레이션, 그리고 실제 온라인 데이터 기반 페르소나 세부화와 윤리적 시뮬레이션 적용까지 확장한다면, 정책 시뮬레이션·악성 컨텐츠 대응·커뮤니티 관리 등 AI 사회적 영향력 연구에 핵심 플랫폼이 될 것입니다.


혹시 요즘 전 세계적으로 터지는 AI 윤리 문제, 가짜뉴스, 사회적 분열 우려에 대해 궁금하셨다면, 이 논문에서 안내하는 ‘사회적 보상과 유대 형성 모델’을 주목해보세요. AI가 인간 사회 ‘속에서’ 어떻게 행동하고 연결되는지를 이해하는 우리 모두의 큰 발걸음입니다.

읽어주셔서 감사합니다! 더 궁금한 점, 혹은 논문 관련 토론 원하시면 댓글 주세요~ 😊


참고

  • 본 리뷰는 arXiv:2510.19299v1 논문 전반 내용을 기술적으로 요약·분석한 글입니다.
  • 각 섹션별 정교한 수식과 프롬프트 디자인 설명은 본 논문 원문과 부록 참고 바랍니다.
  • 논문에 인용된 최신 연구들도 현대 AI-사회융합 연구 동향 이해에 큰 도움 됩니다.

감사합니다!