광고 닫기

기술 분야는 여러 가지 요인으로 인해 위협을 받고 있습니다. 예를 들어 사용자는 맬웨어나 개인 정보 보호 손실을 두려워합니다. 그러나 기술 업계의 영향력 있는 인물들에 따르면, 우리는 인적 요소 자체에 대해 너무 걱정하기보다는 인공 지능과의 연관성에 대해 걱정해야 합니다. 올해 다보스에서 열린 세계경제포럼에서 여러 주요 기술 기업의 임원들은 업계에 대한 입법적 규제를 촉구했습니다. 그들이 그렇게 하는 이유는 무엇입니까?

“인공지능은 우리 인류가 연구하고 있는 가장 심오한 일 중 하나입니다. 불이나 전기보다 더 깊이가 있다.” 지난 수요일 세계 경제 포럼에서 Alphabet Inc.의 CEO가 말했습니다. Sundar Pichai는 인공 지능을 규제하려면 글로벌 처리 프레임워크가 필요하다고 덧붙였습니다. 마이크로소프트(MS) 이사 사티아 나델라(Satya Nadella)와 IBM 이사 지니 로메티(Ginni Rometty)도 인공지능 사용과 관련된 규칙의 표준화를 요구하고 있다. 나델라에 따르면, 30여년 전인 오늘날, 미국, 중국, 유럽연합은 우리 사회와 세계를 위한 인공지능의 중요성을 결정하는 규칙을 수립해야 합니다.

과거에는 개별 기업이 자체적으로 인공 지능에 대한 윤리 규칙을 확립하려는 시도에 대해 해당 기업 직원뿐만 아니라 항의에 부딪힌 적도 있었습니다. 예를 들어, 구글은 대규모 반발 이후 2018년 군용 드론의 이미지를 분석하는 기술을 사용하는 비밀 정부 프로그램인 프로젝트 메이븐(Project Maven)에서 탈퇴해야 했습니다. 인공지능을 둘러싼 윤리적 논란에 대해 베를린 소재 싱크탱크인 Stiftung Neue Verantwortung의 스테판 호이만(Stefan Heumann)은 기업 자체가 아니라 정치 조직이 규칙을 정해야 한다고 말합니다.

Google Home 스마트 스피커는 인공 지능을 사용합니다.

현재 인공지능에 반대하는 시위가 거세지는 데에는 시기가 분명한 이유가 있습니다. 단 몇 주만 지나면 유럽연합은 관련 법안에 대한 계획을 변경해야 합니다. 예를 들어, 여기에는 의료, 운송 등 소위 고위험 분야의 인공 지능 개발에 관한 규정이 포함될 수 있습니다. 예를 들어, 새로운 규칙에 따르면 기업은 AI 시스템 구축 방법을 투명성의 틀에서 문서화해야 합니다.

인공 지능과 관련하여 과거에도 여러 가지 스캔들이 나타났습니다. 그 중 하나는 예를 들어 Cambridge Analytica 사건입니다. 아마존 회사에서는 직원들이 디지털 비서 알렉사를 통해 사용자의 말을 도청했고, 지난해 여름에는 구글(또는 유튜브 플랫폼)이라는 회사가 13세 미만 아동의 데이터를 수집했다는 사실로 인해 또 다시 스캔들이 터졌다. 부모 동의 없이.

일부 회사는 이 주제에 대해 침묵하고 있지만 Nicola Mendelsohn 부사장의 성명에 따르면 Facebook은 최근 유럽 GDPR 규정과 유사한 자체 규칙을 제정했습니다. Mendelsohn은 성명에서 이것이 Facebook이 글로벌 규제를 추진한 결과라고 말했습니다. Google의 개인정보 보호 책임자인 Keith Enright는 최근 브뤼셀에서 열린 컨퍼런스에서 Google이 현재 수집해야 하는 사용자 데이터의 양을 최소화하는 방법을 찾고 있다고 말했습니다. "그러나 널리 퍼진 대중적인 주장은 우리와 같은 회사가 가능한 한 많은 데이터를 수집하려고 노력하고 있다는 것입니다." 그는 또한 사용자에게 아무런 가치도 제공하지 않는 데이터를 보유하는 것은 위험하다고 덧붙였습니다.

규제 당국은 어떤 경우에도 사용자 데이터 보호를 과소평가하지 않는 것 같습니다. 미국은 현재 GDPR과 유사한 연방 법안을 준비 중입니다. 이를 바탕으로 기업은 데이터를 제3자에게 제공하려면 고객의 동의를 얻어야 합니다.

시리 페이스북

드로이 : 블룸버그 게시물에서

.