광고 닫기

13월 말에 예상되는 macOS 2022 Ventura 운영 체제가 공개 출시되었습니다. 이 시스템은 이미 13년 XNUMX월, 특히 Apple이 주요 장점을 공개한 개발자 컨퍼런스 WWDC를 계기로 전 세계에 소개되었습니다. 기본 애플리케이션인 메시지, 메일, Safari 및 새로운 Stage Manager 멀티태스킹 방법에 대한 변경 사항 외에도 우리는 다른 매우 흥미로운 사항도 받았습니다. macOS XNUMX Ventura부터 iPhone을 무선 웹캠으로 사용할 수 있습니다. 덕분에 모든 Apple 사용자는 휴대폰 자체의 렌즈만 사용하면 되는 최고 수준의 이미지 품질을 얻을 수 있습니다.

또한 성가신 케이블 없이도 모든 것이 거의 즉각적으로 작동합니다. 근처에 Mac과 iPhone을 두고 iPhone을 웹캠으로 사용하려는 특정 응용 프로그램을 선택하기만 하면 됩니다. 언뜻 보기에는 완전히 놀라운 일처럼 들리지만, 지금 밝혀진 바와 같이 Apple은 신제품으로 실제로 성공을 거두고 있습니다. 안타깝게도 이 기능은 모든 사람이 사용할 수 있는 것은 아니며 macOS 13 Ventura 및 iOS 16을 설치하는 것만이 유일한 조건은 아닙니다. 동시에 iPhone XR 이상이 있어야 합니다.

구형 iPhone은 왜 사용할 수 없나요?

그러므로 다소 흥미로운 질문에 대해 좀 밝혀 보겠습니다. macOS 13 Ventura에서 구형 iPhone을 웹캠으로 사용할 수 없는 이유는 무엇입니까? 우선 중요한 점 하나를 언급할 필요가 있다. 불행하게도 Apple은 이 문제에 대해 언급한 적이 없으며 이러한 제한이 실제로 존재하는 이유를 설명하지도 않습니다. 그래서 결국은 가정일 뿐입니다. 어쨌든, 예를 들어 iPhone X, iPhone 8 및 이전 버전이 이 흥미로운 새 기능을 지원하지 않는 데에는 여러 가지 가능성이 있습니다. 그럼 빠르게 요약해 보겠습니다.

위에서 언급했듯이 몇 가지 가능한 설명이 있습니다. 일부 Apple 사용자에 따르면 일부 오디오 기능이 없다는 것이 부재를 설명합니다. 반면, 구형 칩셋 사용으로 인한 성능 저하 자체가 그 원인일 수 있다고 생각하는 사람들도 있습니다. 결국, 지원되는 가장 오래된 휴대폰인 iPhone XR은 시장에 출시된 지 4년이 넘었습니다. 그 기간 동안 성능이 급격하게 향상되었으므로 이전 모델이 따라잡을 수 없을 가능성이 높습니다. 그러나 가장 가능성이 높은 설명은 신경 엔진입니다.

후자는 칩셋의 일부이며 기계 학습 작업 시 매우 중요한 역할을 합니다. iPhone XS/XR부터 Neural Engine은 그 기능을 몇 단계 발전시키는 상당한 개선을 이루었습니다. 반대로, 8년 더 오래된 iPhone X/2에는 이 칩이 있지만 기능면에서 완전히 동등하지는 않습니다. iPhone X의 Neural Engine에는 600개의 코어가 있고 초당 8억 개의 작업을 처리할 수 있었던 반면, iPhone XS/XR에는 5개의 코어가 있어 초당 최대 XNUMX조 개의 작업을 처리할 수 있습니다. 반면 일부에서는 Apple이 Apple 사용자가 최신 장치로 전환하도록 동기를 부여하기 위해 의도적으로 이러한 제한을 결정했다고 언급합니다. 그러나 신경 엔진 이론이 더 그럴듯해 보입니다.

맥OS 벤츄라

신경 엔진의 중요성

많은 Apple 사용자가 이를 인식하지 못하지만 Apple A 시리즈 및 Apple Silicon 칩셋 자체의 일부인 Neural Engine은 매우 중요한 역할을 합니다. 이 프로세서는 인공 지능이나 기계 학습의 가능성과 관련된 모든 작업 뒤에 있습니다. 예를 들어 Apple 제품의 경우 광학 문자 인식을 기반으로 작동하여 사진 속의 텍스트를 인식할 수 있는 라이브 텍스트 기능(iPhone XR에서 사용 가능)을 관리합니다. 특히 인물 사진을 개선하거나 Siri 음성 지원의 올바른 기능을 향상시킵니다. 따라서 위에서 언급한 것처럼 Neural Engine의 차이점이 macOS 13 Ventura에서 구형 iPhone을 웹캠으로 사용할 수 없는 주된 이유인 것 같습니다.

.