광고 닫기

오늘, 이르면 내일 세상에 공개될 수 있는 매우 흥미로운 사과 신제품에 대한 정보가 인터넷에 나타나기 시작했습니다. 이 보고서에 따르면, Apple은 저장된 아동 학대 이미지와 일치하는 항목을 찾는 해싱 알고리즘을 사용하여 기기의 사진을 스캔하는 새로운 시스템을 도입할 예정입니다. 예를 들어 아동 포르노가 될 수도 있습니다.

iPhone 13 Pro(렌더링):

보안이라는 이름으로 시스템은 소위 클라이언트측이어야 합니다. 실제로 이는 iPhone이 개별 비교를 위해 필요한 지문 데이터베이스를 다운로드할 때 모든 계산과 비교가 장치에서 직접 수행된다는 것을 의미합니다. 긍정적인 결과가 나오면 해당 사례는 검토를 위해 정규 직원에게 전달될 가능성이 높습니다. 어쨌든 현재로서 우리는 시스템이 결승전에서 어떻게 작동할지, 그 조건과 가능성은 무엇인지 추측할 수 있을 뿐입니다. 그래서 현재는 공식 발표를 기다려야 합니다. 예를 들어 전화기가 기계 학습을 통해 다양한 사진을 인식하고 분류할 수 있는 경우와 같이 iOS에서도 비슷한 기능이 이미 작동하고 있습니다.

그럼에도 불구하고 보안 및 암호화 전문가인 매튜 그린(Matthew Green)은 새로운 시스템이 매우 복잡한 분야라고 주목했습니다. 해싱 알고리즘은 아주 쉽게 잘못될 수 있기 때문입니다. Apple이 아동 학대 이미지를 비교하고 식별하는 데 사용되는 소위 지문 데이터베이스에 대한 접근 권한을 정부 및 정부 기관에 부여하는 경우 해당 시스템이 다른 용도로도 사용될 위험이 있습니다. . 이들 주체가 의도적으로 다른 지문을 찾을 수도 있고, 이는 극단적인 경우 정치적 활동을 탄압하는 등으로 이어질 수 있기 때문이다.

아이폰 앱

그러나 적어도 지금은 당황할 이유가 없습니다. 예를 들어 백업을 통해 iCloud에 저장된 모든 사진도 최종적으로 암호화되지는 않지만 Apple 서버에 암호화된 형식으로 저장되는 반면 키 자체는 다시 Cupertino 거대 기업에 의해 보관됩니다. 따라서 정당한 긴급 상황이 발생하는 경우 정부는 특정 자료를 제공하도록 요청할 수 있습니다. 위에서 언급했듯이 현재 최종 시스템이 어떤 모습일지는 불분명합니다. 아동 학대는 큰 문제이므로 이를 감지할 수 있는 적절한 도구를 갖추는 것이 나쁠 것은 없습니다. 그러나 동시에 그러한 권력이 남용되어서는 안 된다.

.