현재 AI 모델이 사용자에게 배포되는 방식에는 두 가지 주요 패러다임이 있으며, 이들은 모두 중대한 한계를 가지고 있습니다 .
패러다임 | 작동 방식 | 장점 | 단점 |
---|---|---|---|
폐쇄형 API 서비스 | OpenAI의 GPT나 Anthropic의 Claude처럼, 모델 실행이 중앙 집중식으로 관리됩니다 . | 모델 소유자가 완벽한 통제력, 수익화, 안전 조치(예: 콘텐츠 검열)를 유지할 수 있습니다 . | 독점화, 사생활 침해 우려가 크고, 사용자는 모델 동작을 검증하거나 운영 독립성을 유지할 수 없습니다 . |
오픈 웨이트 배포 | Meta의 Llama 시리즈처럼, 모델 가중치를 공개하여 사용자가 다운로드 후 로컬에서 실행할 수 있습니다 . | 투명성, 로컬 실행, 수정(예: 미세 조정)의 자유가 보장됩니다 . | 모델 소유자가 사용에 대한 직접적인 통제력을 잃고, 윤리적 제약을 강제할 수 없으며, 지속 가능한 수익 창출 메커니즘이 부족합니다 . |
이러한 양자택일은 단순한 비즈니스 모델의 선택이 아니라, 현재 인프라의 근본적인 기술적 한계를 보여줍니다 . OML은 바로 이 문제를 해결하고자 고안되었습니다 .
OML은 '개방 접근성'과 '소유자 통제'라는 모순되어 보이는 요구 사항을 조화시키기 위해 세 가지 속성을 정의합니다 .
속성 | 한국어 명칭 | 설명 (쉬운 이해) |
---|---|---|
[O] Open-access | 개방 접근성 | 모델이 로컬 환경에서 자유롭게 배포되고 실행될 수 있도록 합니다. 사용자는 자신의 데이터 프라이버시를 유지하면서도 최신 모델을 사용할 수 있습니다 . |
[M] Monetizable | 수익 창출 가능 | 모델 소유자가 추론(사용)당 세분화된 인증 메커니즘을 통해 경제적 가치를 확보할 수 있게 합니다. 이는 합리적인 사용자가 무단 사용 대신 정식으로 접근 권한을 구매하도록 유도하는 경제적 균형을 만듭니다 . |
[L] Loyal | 충실성 | 모델이 소유자가 정의한 안전 및 윤리 정책을 기술적으로 강제합니다. 모델은 유효한 암호화 기반 권한(permission)이 제시되었을 때만 고품질 출력을 생성합니다. 즉, 유해한 출력이 발생하기 전(pre-hoc)에 이를 막습니다 . |
이러한 OML 원시 개념은 AI 배포와 거버넌스의 미래에 중요한 영향을 미치며, 암호학, 기계 학습, 메커니즘 설계의 교차점에서 새로운 연구 방향을 열고 있습니다 .
OML 원시 개념은 다음과 같은 핵심적인 문제들을 해결하고, 더 협력적인 AI 생태계를 조성하는 데 기여합니다 .
OML을 구현하는 것은 사용자가 모델 가중치와 구조에 대한 완전한 가시성을 갖는 화이트박스 접근(white-box access) 조건 하에서 모델의 기능을 보호해야 하므로 매우 어렵습니다 . 연구자들은 이 문제를 해결하기 위해 여러 가지 기술적 접근 방식을 제시했습니다.
접근 방식 | 보안 기반 | 작동 원리 | 오버헤드 | 보안 수준/특징 |
---|---|---|---|---|
OML 1.0 (AI 기반 지문) | 경제적 억제력 (낙관적 보안) | 모델에 비밀 키-응답 쌍(지문)을 심어, 무단 사용 시 사후적(Post-hoc)으로 위반을 감지하고 처벌(예: 담보 회수)을 통해 규정 준수를 강제 . | 무시할 수 있는 수준 (Negligible) \ | 즉시 배포 가능. 보안은 '발각 및 처벌'에 의존 (경제적 억제력) . |
난독화 (Obfuscation) | 소프트웨어 보안 | 인증 로직을 모델의 연산 경로에 복잡하게 엮어 넣어(난독화하여) 공격자가 인증 검사를 제거하기 어렵게 만듭니다 . | 거의 없음 (≈ 0) \ | 보안은 난독화의 모호성에 의존하여, 전념하는 해커에게는 취약하며 입증 가능한 보안은 제공하지 않습니다 . |
TEE 게이팅 실행 | 하드웨어 보안 | 신뢰 실행 환경 (TEE) 이라는 프로세서 기반의 안전한 공간(enclave) 내에서 모델의 핵심 부분과 인증 검증을 실행합니다 . | 적절함 (Moderate) \ | 하드웨어 기반의 강력한 보안을 제공하지만, 하드웨어 공급업체의 신뢰가 필요하며, 현재는 CPU 기반으로 제한되어 대규모 모델에 적용이 어렵습니다 . |
암호화 (Cryptography) | 입증 가능한 보안 | 완전 동형 암호화(FHE) 같은 기술을 사용하여, 데이터가 암호화된 상태에서도 모델 추론을 수행하고, 소유자만이 결과를 복호화하여 인증을 강제합니다 . | 매우 높음 (Very High) \ | 외부 신뢰 없이 완벽한 보안을 제공하지만, 연산 오버헤드가 극도로 높아 현재 대규모 AI 모델에는 실용적이지 않습니다 . |
멜란지 하이브리드 (Melange) | 복합 구성 | 모델의 중요 구성 요소에 따라 TEE, 암호화, 난독화 등 다양한 보호 기법을 조합하여 적용합니다 . | 유연함 (Flexible) \ | 보안 수준과 효율성 사이의 균형을 소유자가 직접 조정할 수 있는 유연한 경로를 제공합니다 . |
OML 1.0은 현재 바로 배포 가능한 효율적인 접근 방식입니다 . 이는 AI 기반 암호화라는 개념을 활용하며, AI 모델에 대한 보안 위협으로 알려진 백도어 공격(backdoor attacks)을 모델의 소유권을 인증하는 도구로 전환한 것입니다 .
이 접근 방식의 보안은 충분한 수의 지문을 모델에 삽입하는 능력에 달려 있습니다. 지문의 수가 많을수록 무단 사용이 발각될 확률이 높아져 호스트의 회피 시도를 효과적으로 억제할 수 있습니다 .
출처 : https://arxiv.org/pdf/2411.03887
Sentient AGI - 핑거프린팅: 모델 레이어에서 오픈소스 수익화 실현하기 (1) | 2025.10.15 |
---|---|
Sentient AGI - 크립토 세계의 AI 에이전트: 실전 공격과 완벽한 해결책의 부재 (0) | 2025.10.15 |
Sentient AGI - Open Deep Search: 독점 AI 검색과 오픈소스 간의 격차 해소 (0) | 2025.10.15 |