본문 바로가기

AI

‘공동생산’으로 재정의하는 AI 개발의 전 과정: 투명성·공정성·지속가능성을 향한 증강형 참여형 AI 생명주기 모델

안녕하세요, 여러분! 오늘은 Rashid Mushkani 등 연구진이 발표한 흥미로운 논문 “Co-Producing AI: Toward an Augmented, Participatory Lifecycle”을 리뷰해 보려고 합니다. 기존 AI 개발과는 확연히 차별화되는 ‘참여적’이고 ‘증강된’ AI 생명주기 모델을 제안하는데요, 이 점이 특히 기술 실무자분께도 중요한 시사점을 준다는 점에서 주목해볼 만합니다.


기존 AI 개발의 한계, 그리고 그간의 접근법

AI 시스템은 현재 법집행, 의료, 추천시스템 등 다양한 의사결정 분야에 빠르게 적용되고 있습니다. 하지만 많은 연구(예: Buolamwini & Gebru 2018)가 지적하듯, 종종 편향과 불투명성으로 인해 소수자와 취약집단에 불공평한 영향을 끼치죠. 이를 해결하기 위해 ‘책임 있는 AI’ 원칙들이 제정되고, 여러 알고리즘적 공정성 지표(통계적 동등성, 개별 공정성 등)가 등장했습니다.

하지만 문제는 이처럼 ‘기술적’ 시선과 ‘윤리적 지침’이 서로 충분히 연결되지 않는다는 겁니다.

  • 공정성 지표들이 서로 모순되거나,
  • 고수준 윤리 가이드라인들이 실무 적용 단계에서 명확한 ‘작업 절차’를 제공하지 않고,
  • 참여자의 목소리가 개발 초기 한두 단계에서만 제한적으로 반영돼,
  • 실제 이해관계자 요구와 비즈니스 목표 사이 긴장 상황을 처리하기 어렵다는 점입니다.

즉, ‘어떻게’ AI를 개발할지에 대한 과정적 기획이 부족한 거죠.


이 논문이 주목한 기술적ㆍ절차적 문제: AI 개발의 ‘전과정 참여’

연구진은 “단순히 AI 개발 초기나 결과 검증만 참여시키는 게 아니라, AI 생명주기 전반에 걸쳐 다층적 이해관계자가 ‘공동생산(co-production)’해야 한다”는 점을 주장합니다. 그리고 이를 담은 새로운 ‘확장된(Augmented) AI 생명주기’를 제시했죠.

핵심은 “기술적인 알고리즘 설계뿐 아니라, 문제 정의에서부터 설계, 구현, 배포, 유지보수까지 시민과 전문가가 함께 의사결정을 내리는 구조”입니다. 각 단계에서 서로 다른 영역의 지식이 교환되고 권한이 분산되면서, 투명성과 맞춤형 윤리성이 확보되는 거죠.

기술적으로 흥미로운 점:

  • 버전 관리된 산출물과 모델 카드를 통해 각 의사결정의 형상관리와 투명성을 유지
  • 합의된 참여자 리뷰 절차로 모델 편향과 성능 이슈를 반복 점검
  • 컨텍스트 맞춤형 데이터 프라이버시 설계 (예: 지역 사회의 사회문화적 규범에 맞춘 비식별화 전략)
  • 그리고 배포 이후에도 지속되는 규범 변화 대응을 위한 ‘공동 유지보수’ 프로세스!

기존 연구들과의 차이점

많은 전통적 AI 개발은 기획·설계·개발·배포라는 선형적 접근법(SDLC 또는 ML 파이프라인 모델)을 기반으로 합니다. 이 과정들에선 기술 전문가가 중심이 되고, 사용자 및 시민 참여는 주로 요구사항 수집 초기 또는 평가 단계에 국한된 경우가 많았습니다.

예를 들어, Sculley et al.(2015)은 ML 시스템의 ‘숨겨진 기술적 부채’에 대해 논하면서 구현과 운영의 지속관리 중요성을 강조했지만, 조직 외부 참가자와의 공동 작업 모델까지 다루진 않았죠. 반면, 이 논문의 모델은 ‘참여’라는 변수를 전 과정에 녹여내 인적 다양성과 권한 분산을 전면화했습니다.

또 다른 선행 연구인 Birhane et al.(2022)의 ‘참여형 AI’도 시민 참여의 필요성을 인지하지만, 실제 개발 생명주기 전체를 촘촘히 감싸는 ‘5단계 공동생산’ 프레임워크는 제안하지 않습니다. 이 논문은 학제간 워크숍 데이터와 디자인 저스티스, 확장학습 이론을 접목해 실질적인 구현 절차와 체크포인트를 구체화했다는 점이 기술적 가치를 높입니다.


구체적인 5단계 공동생산 프로세스

  1. Co-Framing (공동 문제 정의)
    AI 문제와 영향을 받는 커뮤니티 범위를 시민 참여로 명확히 설정합니다. 여기서 “누가 영향을 받는가?”를 다학제적 시각으로 탐색하죠.
  2. Co-Design (공동 설계)
    데이터 출처 선정이나 모델 설계, 옵셥 간 트레이드오프 분석을 공동으로 수행합니다. 예를 들어 데이터 편향과 정보보호 요구사항을 협력적으로 조율합니다.
  3. Co-Implementation (공동 구현)
    실제 데이터 전처리, 학습, 검증 프로세스에 시민들이 피드백을 주고받으며 민주적 규격 수립이 이뤄집니다.
  4. Co-Deployment (공동 배포)
    시스템이 사회적 맥락에 안착하도록 수용성 테스트와 운영 감시 체계를 공유합니다.
  5. Co-Maintenance (공동 유지보수)
    AI 시스템은 시간이 지남에 따라 개념 변화, 규제 변화에 맞춰 지속 감사 및 업데이트를 공동으로 결정합니다.

각 단계마다 산출물의 형태와 책임 소재가 명확하고, 실시간 피드백 루프가 유지되기에, 기술적으로도 “투명한 AI 공급망(Transparent AI Supply Chain)” 관리가 가능해집니다.


실무자께 드리는 시사점

  • 다양한 배경의 전문가 + 실제 영향 받는 시민의 ‘함께’ 참여가 기술 완성도를 높이는 비결
    개발자가 놓치기 쉬운 구조적 편향이 현장 목소리를 통해 조기에 드러남
  • 상호지식교환 및 권한 분산 메커니즘 구축이 필수
    기존의 ‘일방향 개발’에서 벗어나 레거시 MLOPS에 참여 민주주의 원칙을 도입하는 감각
  • 컨텍스트-감수성 기반 개인정보 보호 설계는 규제 대응력 강화에 도움
    특정 문화권과 커뮤니티 특성까지 반영하는 ‘맞춤형 프라이버시’ 구축도 가능
  • 장기적 유지보수와 거버넌스는 AI 신뢰성 및 지속가능성을 책임진다
    단발적 배포가 아닌 ‘살아있는 서비스’로서 AI 시스템 관리 전략

요약하자면, 이 논문에서 말하는 ‘증강된 참여형 AI 생명주기’는 AI 기술을 ‘더 똑똑하게’ 만드는 것을 넘어서, 누구와 어떻게 협력해야 할지, 그리고 AI 파이프라인 전반에서 윤리성과 투명성을 어떻게 실현할지에 관한 기술-사회적 통합 모델이라는 점에서 그 가치를 발견할 수 있습니다.

개발 분야에 계신 분들이라면 한 번쯤 우리 팀과 조직에 적용 가능한 ‘공동 제작’ 지침으로 참고해 보시는 것을 강력 추천드려요. AI가 진짜 ‘모두를 위한 AI’가 되려면 단순한 알고리즘 개선을 넘어, 이런 깊은 거버넌스 혁신이 필요하니까요!

그럼 다음 리뷰에서 또 만나요! 😊