상세 컨텐츠

본문 제목

Sentient AGI - OML 문서

AI

by 0xRobert 2025. 10. 14. 00:27

본문


1. OML (개방, 수익 창출, 충실한 AI) 소개: 핵심 요약

AI 모델 배포의 근본적인 문제

현재 AI 모델이 사용자에게 배포되는 방식에는 두 가지 주요 패러다임이 있으며, 이들은 모두 중대한 한계를 가지고 있습니다 .

패러다임 작동 방식 장점 단점
폐쇄형 API 서비스 OpenAI의 GPT나 Anthropic의 Claude처럼, 모델 실행이 중앙 집중식으로 관리됩니다 . 모델 소유자가 완벽한 통제력, 수익화, 안전 조치(예: 콘텐츠 검열)를 유지할 수 있습니다 . 독점화, 사생활 침해 우려가 크고, 사용자는 모델 동작을 검증하거나 운영 독립성을 유지할 수 없습니다 .
오픈 웨이트 배포 Meta의 Llama 시리즈처럼, 모델 가중치를 공개하여 사용자가 다운로드 후 로컬에서 실행할 수 있습니다 . 투명성, 로컬 실행, 수정(예: 미세 조정)의 자유가 보장됩니다 . 모델 소유자가 사용에 대한 직접적인 통제력을 잃고, 윤리적 제약을 강제할 수 없으며, 지속 가능한 수익 창출 메커니즘이 부족합니다 .

이러한 양자택일은 단순한 비즈니스 모델의 선택이 아니라, 현재 인프라의 근본적인 기술적 한계를 보여줍니다 . OML은 바로 이 문제를 해결하고자 고안되었습니다 .

OML의 세 가지 핵심 속성

OML은 '개방 접근성'과 '소유자 통제'라는 모순되어 보이는 요구 사항을 조화시키기 위해 세 가지 속성을 정의합니다 .

속성 한국어 명칭 설명 (쉬운 이해)
[O] Open-access 개방 접근성 모델이 로컬 환경에서 자유롭게 배포되고 실행될 수 있도록 합니다. 사용자는 자신의 데이터 프라이버시를 유지하면서도 최신 모델을 사용할 수 있습니다 .
[M] Monetizable 수익 창출 가능 모델 소유자가 추론(사용)당 세분화된 인증 메커니즘을 통해 경제적 가치를 확보할 수 있게 합니다. 이는 합리적인 사용자가 무단 사용 대신 정식으로 접근 권한을 구매하도록 유도하는 경제적 균형을 만듭니다 .
[L] Loyal 충실성 모델이 소유자가 정의한 안전 및 윤리 정책을 기술적으로 강제합니다. 모델은 유효한 암호화 기반 권한(permission)이 제시되었을 때만 고품질 출력을 생성합니다. 즉, 유해한 출력이 발생하기 전(pre-hoc)에 이를 막습니다 .

이러한 OML 원시 개념은 AI 배포와 거버넌스의 미래에 중요한 영향을 미치며, 암호학, 기계 학습, 메커니즘 설계의 교차점에서 새로운 연구 방향을 열고 있습니다 .

OML의 중요성과 영향

OML 원시 개념은 다음과 같은 핵심적인 문제들을 해결하고, 더 협력적인 AI 생태계를 조성하는 데 기여합니다 .

  1. 프라이버시 보호 로컬 실행: 의료기관이나 금융기관처럼 민감한 데이터를 다루는 조직이 외부 API에 기밀 정보를 노출하지 않고도 최첨단 AI 모델을 로컬에서 사용할 수 있게 됩니다. 예를 들어, 의료기관은 환자 데이터를 외부에 공유하지 않고 진단 모델을 실행할 수 있습니다 .
  2. 윤리적, 법적 사용의 기술적 강제: OML은 모든 추론에 대해 사전 암호화 인증을 요구함으로써, 현재는 단순히 서비스 약관에만 의존하는 공개 가중치 모델에 대한 안전 정책 및 사용자 계약을 강력하게 강제할 수 있는 메커니즘을 제공합니다 .
  3. 더 협력적인 AI 생태계 조성: OML은 사용이 모든 기여자에게 보상을 제공하는 순환 구조(양방향 가치 흐름)를 가능하게 하는 기술 인프라를 구축하여, 지속적인 개선을 위한 경제적 인센티브를 제공합니다 .

2. OML 구현을 위한 기술적 접근 방식 (OML 1.0 및 정식 설계)

OML을 구현하는 것은 사용자가 모델 가중치와 구조에 대한 완전한 가시성을 갖는 화이트박스 접근(white-box access) 조건 하에서 모델의 기능을 보호해야 하므로 매우 어렵습니다 . 연구자들은 이 문제를 해결하기 위해 여러 가지 기술적 접근 방식을 제시했습니다.

접근 방식 보안 기반 작동 원리 오버헤드 보안 수준/특징
OML 1.0 (AI 기반 지문) 경제적 억제력 (낙관적 보안) 모델에 비밀 키-응답 쌍(지문)을 심어, 무단 사용 시 사후적(Post-hoc)으로 위반을 감지하고 처벌(예: 담보 회수)을 통해 규정 준수를 강제 . 무시할 수 있는 수준 (Negligible) \ 즉시 배포 가능. 보안은 '발각 및 처벌'에 의존 (경제적 억제력) .
난독화 (Obfuscation) 소프트웨어 보안 인증 로직을 모델의 연산 경로에 복잡하게 엮어 넣어(난독화하여) 공격자가 인증 검사를 제거하기 어렵게 만듭니다 . 거의 없음 (≈ 0) \ 보안은 난독화의 모호성에 의존하여, 전념하는 해커에게는 취약하며 입증 가능한 보안은 제공하지 않습니다 .
TEE 게이팅 실행 하드웨어 보안 신뢰 실행 환경 (TEE) 이라는 프로세서 기반의 안전한 공간(enclave) 내에서 모델의 핵심 부분과 인증 검증을 실행합니다 . 적절함 (Moderate) \ 하드웨어 기반의 강력한 보안을 제공하지만, 하드웨어 공급업체의 신뢰가 필요하며, 현재는 CPU 기반으로 제한되어 대규모 모델에 적용이 어렵습니다 .
암호화 (Cryptography) 입증 가능한 보안 완전 동형 암호화(FHE) 같은 기술을 사용하여, 데이터가 암호화된 상태에서도 모델 추론을 수행하고, 소유자만이 결과를 복호화하여 인증을 강제합니다 . 매우 높음 (Very High) \ 외부 신뢰 없이 완벽한 보안을 제공하지만, 연산 오버헤드가 극도로 높아 현재 대규모 AI 모델에는 실용적이지 않습니다 .
멜란지 하이브리드 (Melange) 복합 구성 모델의 중요 구성 요소에 따라 TEE, 암호화, 난독화 등 다양한 보호 기법을 조합하여 적용합니다 . 유연함 (Flexible) \ 보안 수준과 효율성 사이의 균형을 소유자가 직접 조정할 수 있는 유연한 경로를 제공합니다 .

OML 1.0: AI 기반 지문 기술의 상세 설명

OML 1.0은 현재 바로 배포 가능한 효율적인 접근 방식입니다 . 이는 AI 기반 암호화라는 개념을 활용하며, AI 모델에 대한 보안 위협으로 알려진 백도어 공격(backdoor attacks)을 모델의 소유권을 인증하는 도구로 전환한 것입니다 .

  1. 지문 삽입: 모델 소유자는 미세 조정을 통해 모델에 비밀스러운 지문 쌍(키와 그에 대응하는 특정 응답)을 주입합니다 . 이 지문은 로컬 실행에 대한 유틸리티(성능)를 손상시키지 않도록 설계됩니다 .
  2. 사용자 규정 준수: 모델 호스트는 모델 사용 시마다 플랫폼으로부터 서명된 권한 토큰을 받아야 하며, 플랫폼은 이를 기록하여 수익을 창출합니다 .
  3. 위반 감지 및 처벌: 독립적인 증명자(Prover)는 비밀 지문 키를 사용하여 호스트의 서비스에 질의합니다. 만약 호스트가 플랫폼으로부터 권한을 받지 않고 (즉, 무단으로 사용하고) 올바른 지문 응답을 생성하면, 이는 라이선스 위반으로 간주되어 계약에 따라 처벌받게 됩니다 (예: 담보금이 회수됨) .

이 접근 방식의 보안은 충분한 수의 지문을 모델에 삽입하는 능력에 달려 있습니다. 지문의 수가 많을수록 무단 사용이 발각될 확률이 높아져 호스트의 회피 시도를 효과적으로 억제할 수 있습니다 .

 

출처 : https://arxiv.org/pdf/2411.03887 

 

관련글 더보기