Apple의 CSAM 시스템은 속았지만 회사는 두 가지 안전 장치를 가지고 있습니다.

업데이트: Apple은 서버의 두 번째 검사를 언급했으며 전문 컴퓨터 비전 회사는 아래 "두 번째 검사의 작동 방식"에서 설명할 수 있는 가능성에 대해 설명했습니다.
개발자가 일부를 리버스 엔지니어링한 후 Apple CSAM 시스템의 초기 버전은 무고한 이미지를 표시하도록 효과적으로 속였습니다.그러나 Apple은 이러한 일이 현실에서 일어나지 않도록 추가적인 보호 장치가 있다고 밝혔습니다.
최신 개발은 NeuralHash 알고리즘이 오픈 소스 개발자 웹 사이트 GitHub에 게시된 후 이루어졌으며 누구나 실험할 수 있습니다…
모든 CSAM 시스템은 NCMEC(National Center for Missing and Exploited Children)와 같은 조직에서 알려진 아동 성적 학대 자료의 데이터베이스를 가져와 작동합니다.데이터베이스는 이미지에서 해시 또는 디지털 지문의 형태로 제공됩니다.
대부분의 기술 대기업이 클라우드에 업로드된 사진을 스캔하지만 Apple은 고객의 iPhone에서 NeuralHash 알고리즘을 사용하여 저장된 사진의 해시 값을 생성한 다음 다운로드한 CSAM 해시 값 사본과 비교합니다.
어제 개발자는 Apple의 알고리즘을 리버스 엔지니어링하고 GitHub에 코드를 공개했다고 주장했습니다. 이 주장은 Apple에 의해 효과적으로 확인되었습니다.
GitHib이 출시된 후 몇 시간 이내에 연구원들은 알고리즘을 사용하여 의도적인 거짓 긍정(동일한 해시 값을 생성하는 완전히 다른 두 개의 이미지)을 만드는 데 성공했습니다.이것을 충돌이라고 합니다.
이러한 시스템의 경우 항상 충돌 위험이 있습니다. 해시는 물론 이미지를 크게 단순화한 표현이기 때문입니다. 하지만 누군가가 이미지를 그렇게 빨리 생성할 수 있다는 것은 놀라운 일입니다.
여기서 의도적인 충돌은 개념 증명일 뿐입니다.개발자는 실시간 시스템에서 가양성 생성이 필요한 CSAM 해시 데이터베이스에 액세스할 수 없지만 충돌 공격이 원칙적으로 비교적 쉽다는 것을 증명합니다.
Apple은 알고리즘이 자체 시스템의 기초임을 효과적으로 확인했지만 마더보드에 이것이 최종 버전이 아니라고 말했습니다.회사는 또한 그것을 기밀로 유지할 의도가 없었다고 밝혔습니다.
Apple은 GitHub에서 사용자가 분석한 버전이 iCloud Photo CSAM 감지에 사용되는 최종 버전이 아닌 일반 버전이라고 전자 메일을 통해 Motherboard에 알렸습니다.애플은 알고리즘도 공개했다고 밝혔다.
"NeuralHash 알고리즘 [...]은 서명된 운영 체제 코드의 일부이며 보안 연구원은 해당 동작이 설명을 준수하는지 확인할 수 있습니다."라고 Apple 문서에서 썼습니다.
회사는 계속해서 자체 서버에서 보조(비밀) 매칭 시스템을 실행하는 것과 수동 검토라는 두 가지 단계가 더 있다고 말했습니다.
Apple은 또한 사용자가 30개 일치 임계값을 통과한 후 Apple 서버에서 실행되는 두 번째 비공개 알고리즘이 결과를 확인할 것이라고 밝혔습니다.
"이 독립적인 해시는 잘못된 NeuralHash가 비 CSAM 이미지의 적대적 간섭으로 인해 장치의 암호화된 CSAM 데이터베이스와 일치하고 일치 임계값을 초과할 가능성을 거부하기 위해 선택되었습니다."
Roboflow의 Brad Dwyer는 충돌 공격에 대한 개념 증명으로 게시된 두 이미지를 쉽게 구별할 수 있는 방법을 찾았습니다.
비슷하지만 다른 신경 특징 추출기 OpenAI의 CLIP에서 이러한 이미지가 어떻게 보이는지 궁금합니다.CLIP은 NeuralHash와 유사하게 작동합니다.이미지를 가져오고 신경망을 사용하여 이미지의 콘텐츠에 매핑되는 특징 벡터 세트를 생성합니다.
그러나 OpenAI의 네트워크는 다릅니다.이미지와 텍스트를 매핑할 수 있는 일반 모델입니다.즉, 사람이 이해할 수 있는 이미지 정보를 추출하는 데 사용할 수 있습니다.
위의 두 충돌 이미지도 CLIP을 통해 실행하여 속았는지 확인했습니다.짧은 대답은 다음과 같습니다.이는 Apple이 감지된 CSAM 이미지에 두 번째 기능 추출기 네트워크(예: CLIP)를 적용하여 실제인지 가짜인지 판별할 수 있어야 함을 의미합니다.동시에 두 개의 네트워크를 속이는 이미지를 생성하는 것은 훨씬 더 어렵습니다.
마지막으로 앞서 언급한 것처럼 이미지를 수동으로 검토하여 CSAM인지 확인합니다.
보안 연구원은 유일한 실제 위험은 Apple을 짜증나게 하려는 사람이 검토자에게 오탐을 제공할 수 있다는 점이라고 말했습니다.
"Apple이 실제로 이 시스템을 설계했기 때문에 해시 기능을 비밀로 유지할 필요가 없습니다. 'CSAM이 아닌 CSAM'으로 할 수 있는 유일한 일은 분석 파이프라인에 있는 쓰레기는 오탐지입니다.”라고 버클리 캘리포니아 대학교 국제 컴퓨터 과학 연구소의 선임 연구원인 Nicholas Weaver가 온라인 채팅에서 마더보드에 말했습니다.
개인 정보 보호는 오늘날의 세계에서 증가하는 관심사의 문제입니다.당사 가이드라인의 개인정보 보호, 보안 등과 관련된 모든 신고를 따르십시오.
Ben Lovejoy는 9to5Mac의 영국 기술 작가이자 EU 편집자입니다.그는 칼럼과 일기 기사로 유명하며 시간이 지남에 따라 Apple 제품에 대한 경험을 탐색하여 보다 포괄적인 리뷰를 얻습니다.그는 또한 소설을 쓰기도 합니다. 두 가지 기술 스릴러, 몇 편의 단편 SF 영화와 로맨스 코미디가 있습니다!


게시 시간: 2021년 8월 20일