Big Data

Comissão Europeia discute a regulação do uso de reconhecimento facial

Reconhecimento Facial

Baseando-se em um projeto de proposta de regulamentação no uso da Inteligência artificial obtida pela Euroactiv, uma rede de mídia pan-europeia independente, a Comissão Europeia está considerando uma proibição temporária do uso da tecnologia de reconhecimento facial.

A nova Comissão Europeia, liderada pela presidente Ursula Von Der Leyen promete a criação de regras para garantir que a Inteligência artificial tenha um uso mais confiável e humano.

Mas acredita-se (com base em proposta vazada) que o órgão executivo da União Europeia está se inclinando para ajustes das regras existentes, avaliações e requisitos específicos do setor, em vez de algo tão firme quanto exigências ou proibições setoriais gerais.

O documento oficial vazado da Comissão mostra a ideia de proibir durante um período de três a cinco anos o uso da tecnologia de reconhecimento facial  em locais públicos para dar aos legisladores da UE tempo para inventar maneiras de avaliar e gerenciar riscos em torno do uso da tecnologia, como os direitos de privacidade das pessoas ou o risco de impactos discriminatórios de algoritmos tendenciosos. 

O que, escreve a Comissão “Seria necessário prever algumas exceções, principalmente para atividades no contexto de pesquisa e desenvolvimento e segurança, propósitos” de modo a salvaguardar os direitos das pessoas, em particular contra qualquer possível abuso da tecnologia.

No entanto, existe uma preocupação imediata sobre a imposição de uma proibição por tempo limitado que é descrita como uma medida de longo alcance que pode prejudicar o desenvolvimento e a adoção dessa tecnologia.  Mas a Comissão continua afirmando que sua preferência “nesse momento estágio” é basear-se nas regras existentes de proteção de dados da UE, também conhecidas como Regulamento Geral de Proteção de Dados (GDPR).

De um modo geral, o “white paper” contém várias opções que a Comissão UE ainda está considerando para regulamentar o uso da inteligência artificial.

A comissão repensa sobre a rotulagem voluntária, requisitos setoriais para o setor público inclusive sobre o uso de tecnologia de reconhecimento facial, requisitos obrigatórios baseados em risco para aplicativos de “alto risco” como, nos setores de assistência médica, transporte, policiamento, judiciário e aplicativos que podem produzir efeitos jurídicos para o indivíduo ou a entidade legal ou representar risco lesão, morte ou dano significativo.

A proposta também enfatiza a necessidade de um regime de governança de supervisão para garantir que as regras sejam seguidas embora a Comissão sugira que os Estados-Membros deixem em aberto a opção de confiar nos órgãos de governança existentes para essa tarefa ou criar novos dedicados à regulamentação da IA.

Grande parte dodocumento também aborda a discussão de estratégias sobre apoiar o desenvolvimento e a adoção da IA e facilitar o acesso aos dados.

O comissário da UE Thierry Breton, que supervisiona o portfólio do mercado interno, expressou resistência à criação de regras para inteligência artificial, dizendo ao parlamento da UE que ele “não será a voz da regulação da IA”.

“A situação é extremamente incerta na área de aplicação da lei, e particularmente no uso de parcerias público-privadas na aplicação da lei. Eu argumentaria que, na prática, o GDPR proíbe o reconhecimento facial por empresas privadas em um contexto de vigilância. As empresas de reconhecimento facial terão muita incerteza para legitimar seus negócios” disse Dr. Michael Veale, professor de direitos digitais e regulamentação da UCL ao TechCrunch.

“No entanto, o problema não se restringe ao reconhecimento facial. Qualquer tipo de monitoramento biométrico, como reconhecimento de voz ou marcha, deve ser afetado por qualquer proibição, porque na prática eles têm o mesmo efeito sobre os indivíduos” – acrescenta Veale.

Se a intenção da Comissão é também confiar no GDPR para regularizar itens de maior risco – como, por exemplo, o uso da tecnologia de reconhecimento facial pelas forças policiais – em vez de criar uma estrutura setorial mais explícita para restringir o uso de uma IA altamente hostil às privacidades tecnológicas – poderia exacerbar uma imagem legislativa já confusa no que diz respeito à aplicação da lei, de acordo com o Dr. Michael Veale, professor de direitos digitais e regulamentação da UCL.

Um órgão consultivo criado para aconselhar a Comissão sobre a política de IA estabeleceu uma série de recomendações em um relatório, incluindo sugerir uma proibição do uso da IA ​​para sistemas de vigilância em massa e pontuação de crédito social dos cidadãos.

Mas suas recomendações foram criticadas por especialistas em privacidade e direitos por falhar ao compreender os desequilíbrios de poder da sociedade e questões de desigualdade estrutural mais ampla que a IA corre o risco de exacerbar – inclusive sobrecarregando os modelos de negócios existentes que desgastam os direitos.

Em um artigo no ano passado, Veale chamou o trabalho do órgão consultivo de “oportunidade perdida” – escrevendo que o grupo ignora amplamente infraestrutura e energia, que deve ser uma das preocupações centrais, se não a mais importante, sobre a regulamentação e governança de dados, otimização e ‘inteligência artificial’ na Europa avançando.

Com toda essa discussão, as empresas que desenvolvem projetos baseados em IA estão correndo risco de terem seus negócios inviabilizados pela regulação. Para que a tecnologia avance é preciso ter incentivo para projetos desse tipo. Por outro lado, a inteligência artificial pode ser extremamente perigosa, caso não seja regulada, utilizando parâmetros claros do que pode ou não pode ser feito e como as pessoas podem gerenciar os dados coletados sobre a sua identidade. É um tema onde as argumentações estão só começando.

Vi lá no TechCrunch



Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

 

This site uses Akismet to reduce spam. Learn how your comment data is processed.