화요일, 3월 5, 2024
AIMeta, 백악관 약속을 이행하기 위해 'Purple Llama' AI 보안 제품군 출시

Meta, 백악관 약속을 이행하기 위해 ‘Purple Llama’ AI 보안 제품군 출시

메타는 지난 12월 7일 생성적 인공지능(AI) 모델을 확보하고 벤치마킹하기 위한 도구 모음을 출시했습니다.

“Purple Llama”라고 불리는 이 툴킷은 개발자가 Meta의 오픈 소스 모델인 Llama-2와 같은 생성 AI 도구를 사용하여 안전하게 구축할 수 있도록 돕기 위해 설계되었습니다.

AI 보라색 팀 구성

Meta의 블로그 게시물에 따르면 “Purple Llama”의 “Purple” 부분 참조 ‘레드팀’과 ‘블루팀’을 합친 것이다.

레드팀 구성은 개발자나 내부 테스터가 의도적으로 AI 모델을 공격하여 오류, 결함 또는 원치 않는 출력 및 상호 작용을 생성할 수 있는지 확인하는 패러다임입니다. 이를 통해 개발자는 악의적인 공격에 대한 복원력 전략을 수립하고 보안 및 안전 결함으로부터 보호할 수 있습니다.

반면에 블루 팀 구성은 정반대입니다. 여기에서 개발자 또는 테스터는 프로덕션, 소비자 또는 클라이언트 대면 모델에서 실제 위협에 대처하는 데 필요한 완화 전략을 결정하기 위해 레드 팀 공격에 대응합니다.

목표당:

“우리는 생성 AI가 제시하는 문제를 진정으로 완화하려면 공격(레드 팀)과 방어(블루 팀) 자세를 모두 취해야 한다고 믿습니다. 레드팀과 블루팀의 책임으로 구성된 퍼플팀 구성은 잠재적인 위험을 평가하고 완화하기 위한 협업적 접근 방식입니다.”

모델 보호

Meta가 주장하는 “대규모 언어 모델(LLM)에 대한 업계 최초의 사이버 보안 안전 평가 세트”인 이번 릴리스에는 다음이 포함됩니다.

  • LLM 사이버 보안 위험을 정량화하기 위한 지표
  • 안전하지 않은 코드 제안 빈도를 평가하는 도구
  • 악성 코드 생성을 어렵게 하거나 사이버 공격 수행을 돕기 위해 LLM을 평가하는 도구입니다.

가장 큰 아이디어는 원치 않는 출력과 안전하지 않은 코드를 줄이는 동시에 모델 공격의 유용성을 사이버 범죄자와 악의적인 행위자로 제한하기 위해 시스템을 모델 파이프라인에 통합하는 것입니다.

Meta AI 팀은 “이번 초기 릴리스를 통해 백악관 약속에 명시된 위험을 해결하는 데 도움이 되는 도구를 제공하는 것을 목표로 합니다.”라고 썼습니다.


RELATED ARTICLES

회신을 남겨주세요

귀하의 의견을 입력하십시오!
여기에 이름을 입력하십시오.

가장 인기 있는