링크모음 링크세상
링크세상 링크모음 링크 애니 웹툰 링크 드라마 영화 링크 세상의모든링크

AI 제품 버그 신고에 대한 구글의 보상 기준

범주

공격 시나리오

안내

즉각적인 공격: 적대자가 모델의 동작에 영향을 미치고 그에 따라 애플리케이션에서 의도하지 않은 방식으로 출력이 나올 수 있도록 하는 적대적 프롬프트를 작성합니다.

피해자에게 보이지 않는 신속한 주입으로 피해자의 계정이나 자산 상태를 변경합니다.

범위 내

피해자 사용자에게 직접적인 영향을 미치는 결정을 내리는 데 응답이 사용되는 모든 도구에 즉시 주입합니다.

범위 내

추출된 프리앰블에 민감한 정보가 있는 경우에만 모델 프라이밍에 사용된 초기 프롬프트를 사용자가 추출할 수 있는 프롬프트 또는 프리앰블 추출입니다.

범위 내

제품을 사용하여 자신의 세션에서 위반적이거나 오해의 소지가 있거나 실제로 잘못된 콘텐츠를 생성하는 행위(예: ‘탈옥’) 여기에는 ‘환각’과 사실적으로 부정확한 반응이 포함됩니다. Google의 생성 AI 제품에는 이미 이러한 유형의 콘텐츠 문제에 대한 전용 보고 채널이 있습니다.

범위를 벗어남

훈련 데이터 추출: 민감한 정보가 포함된 축어적 학습 예제를 성공적으로 재구성할 수 있는 공격입니다. 멤버십 추론이라고도 합니다.

민감한 비공개 정보를 유출하는 학습 데이터 세트에 사용된 항목을 재구성하는 학습 데이터 추출입니다.

범위 내

민감하지 않은/공개 정보를 재구성하는 추출입니다.

범위를 벗어남

모델 조작: 사전 정의된 적대적 행동을 트리거할 수 있도록 모델의 동작을 은밀하게 변경할 수 있는 공격자입니다.

공격자가 Google이 소유하고 운영하는 모델의 특정 입력을 통해 안정적으로 트리거할 수 있는 적대적 출력 또는 동작(‘백도어’)입니다. 모델의 출력이 피해자의 계정이나 데이터 상태를 변경하는 데 사용되는 경우에만 범위 내입니다.

범위 내

공격자가 모델의 훈련 데이터를 조작하여 공격자의 선호도에 따라 피해자 세션의 모델 출력에 영향을 미치는 공격입니다. 모델의 출력이 피해자의 계정이나 데이터 상태를 변경하는 데 사용되는 경우에만 범위 내입니다.

범위 내

적대적 교란: 결정론적이지만 모델에서 매우 예상치 못한 결과를 초래하는 모델에 제공되는 입력입니다.

악의적인 사용이나 적대적인 이득을 위해 남용될 수 있는 보안 제어의 오분류를 공격자가 안정적으로 촉발할 수 있는 상황입니다.

범위 내

모델의 잘못된 출력 또는 분류가 설득력 있는 공격 시나리오나 Google 또는 사용자에게 해를 끼칠 수 있는 가능한 경로를 제시하지 않는 상황입니다.

범위를 벗어남

모델 도용 / 유출: AI 모델에는 민감한 지적 재산이 포함되는 경우가 많으므로 당사는 이러한 자산을 보호하는 데 최우선 순위를 둡니다. 유출 공격을 통해 공격자는 아키텍처나 가중치와 같은 모델에 대한 세부 정보를 훔칠 수 있습니다.

기밀/독점 모델의 정확한 아키텍처 또는 가중치가 추출되는 공격입니다.

범위 내

아키텍처와 가중치가 정확하게 추출되지 않거나 기밀이 아닌 모델에서 추출되는 공격입니다.

범위를 벗어남

위에 나열된 것 이외의 AI 기반 도구에서 결함을 발견한 경우에도 제출할 수 있습니다. 프로그램 페이지에 나열된 자격.

당사의 규정에 명백히 부합하는 버그 또는 행위 자격 유효한 보안 또는 남용 문제의 경우.

범위 내

AI 제품을 사용하여 다른 도구로는 이미 가능한 잠재적으로 유해한 작업을 수행합니다. 예를 들어, 오픈 소스 소프트웨어의 취약점을 찾고(공개적으로 사용 가능한 정적 분석 도구를 사용하면 이미 가능함) 답변이 이미 온라인에서 제공되는 경우 유해한 질문에 대한 답변을 생성합니다.

범위를 벗어남

우리 프로그램에 따라 우리가 이미 알고 있는 문제는 보상을 받을 수 없습니다.

범위를 벗어남

잠재적인 저작권 문제: 제품이 저작권으로 보호되는 것처럼 보이는 콘텐츠를 반환하는 결과입니다. Google의 생성 AI 제품에는 이미 이러한 유형의 콘텐츠 문제에 대한 전용 보고 채널이 있습니다.

범위를 벗어남

Leave A Reply

Your email address will not be published.