셀렉트스타, 세계 권위 AI 학회 ‘ICLR’ 논문 채택


AI 데이터·신뢰성 평가 전문기업 셀렉트스타는 자사 AI Safety팀의 연구 논문 ‘CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation(문화 맞춤형 레드티밍 벤치마크 생성 프레임워크)’가 오는 4월 브라질에서 열리는 ‘ICLR 2026’ 메인 컨퍼런스에 채택됐다고 19일 밝혔다.

selectstar 2 - 와우테일

ICLR은 AI 분야에서 가장 영향력 있는 국제 학회 중 하나로, 구글 스칼라 기준 AI 및 머신러닝 분야 최상위권 학회로 꼽힌다. 올해는 1만 9천여 건의 논문 중 상위 약 28%만이 채택됐으며, 셀렉트스타의 논문은 가장 중요하게 다뤄지는 메인 트랙에 선정되며 독창성과 기술적 완성도를 세계적으로 인정받았다. 이번 연구는 기획부터 구현, 검증, 논문 게재까지 외부 교수진이나 연구기관의 도움 없이 셀렉트스타 내부 인력만으로 이뤄낸 성과라는 점에서 더욱 의미가 크다.

이번 논문의 핵심 기술은 각 나라의 문화와 법적 맥락을 반영해 AI의 안전성을 검증하는 레드티밍(Red-Teaming) 데이터를 자동으로 생성하는 프레임워크다. AI가 위험한 질문을 받았을 때 안전하게 대응하는지 점검하는 시험문제를 언어·문화권별로 자동 생성하는 기술이다.

기존의 AI 안전성 검증은 주로 영미권에서 개발된 데이터셋을 단순 직역 및 의역해 사용하는 방식이었다. 이 경우 각 나라에서 실제로 나올 법한 위험 상황을 충분히 반영하지 못해 AI의 약점을 놓칠 수 있다는 한계가 있었다.

셀렉트스타 연구팀은 이를 해결하기 위해 ‘시맨틱 몰드(Semantic Mold)’라는 개념을 제안해 국가의 문화적 특성을 반영한 현지화된 공격 질문을 생성했다. CAGE를 통해 생성된 공격 시나리오는 사람이 직접 만든 것과 유사한 수준의 자연스러움을 보였으며, AI 모델의 방어율을 뚫고 잠재된 위험을 찾아내는 공격 성공률 측면에서도 탁월한 성과를 냈다. 캄보디아어(크메르어) 등 데이터가 부족한 언어권에서도 뛰어난 성능을 보인 점도 특징이다.

논문에는 CAGE를 한국 상황에 적용해 만든 한국형 안전성 벤치마크 ‘KoRSET(코르셋)’도 함께 공개됐다. KoRSET은 기존의 단순 번역으로 만들어진 데이터셋보다 AI 모델의 취약점을 훨씬 더 효과적으로 찾아내며, 한국 문화 기반 안전성 검증에 최적화된 성능을 입증했다.

CAGE 기술은 이미 산업 현장에도 적용되고 있다. 현재 셀렉트스타가 협업하는 대기업 AI 프로젝트에 해당 기술이 적용되어 모델의 취약점 점검 및 운영 효율 개선에 기여하고 있다.

논문의 교신저자인 셀렉트스타 AI Safety 팀장 김민우는 “이번 ICLR 채택은 셀렉트스타가 단순 데이터 구축 기업을 넘어 독보적인 원천 기술을 보유한 AI 기술 기업임을 입증한 사례”라며 “CAGE 기술은 이미 대기업의 AI 프로젝트에 적용되어 모델의 취약점 점검과 운영 효율 개선에 활용되고 있다”고 말했다.

공동저자인 임용택 연구원은 “AI의 성능 경쟁을 넘어 이제는 ‘안전성’이 핵심 경쟁력인 시대”라며 “현장에서 바로 활용 가능한 품질의 안전 평가 기술로 글로벌 기준을 만드는 데 기여할 것”이라고 밝혔다.

한편 셀렉트스타는 이번 연구 성과를 바탕으로 금융, 공공 등 고도의 안전성이 요구되는 다양한 산업군으로 신뢰성 평가 솔루션을 확장할 계획이다. 논문은 오는 3월 오픈소스 플랫폼 아카이브(Arxiv)를 통해 공개될 예정이다.

기사 공유하기

답글 남기기