logo

slogan

ufscar

Cadastre-se e receba as novidades sobre a Agência Inovação da UFSCar por e-mail
parceiros_top

failogopequeno

 

fortec

 

inpi

 

parceiros_bottom

Redes Sociais

face twitter youtube

Inteligência Artificial Responsável cria regras para proteger direitos e evitar decisões baseadas em preconceitos

Qui, 21 de Fevereiro de 2019 11:05

Blog Ciência & Matemática, do jornal O Globo, publica artigo de André Carlos Ponce de Leon Ferreira de Carvalho, vice-diretor do ICMC-USP

 

Nos últimos anos, a Inteligência Artificial (IA) cruzou a fronteira dos laboratórios acadêmico-científicos e está sendo incorporada em várias novas tecnologias. Sua expansão abre oportunidades para grandes avanços não apenas tecnológicos, mas também sociais e econômicos. No entanto toda essa nova tecnologia pode vir a trazer também consequências negativas e, dessa forma, cabe aos cientistas e legisladores definir parâmetros que assegurem que o seu uso seja benéfico.

 

No caso particular da IA, por esta estar incorporada em vários aspectos de nossa vida e pelas mudanças grandes e rápidas que pode provocar, esse receio tem sido ainda maior. Algumas das maiores preocupações dizem respeito a, por exemplo, máquinas tomando decisões que afetam de modo direto nossa vida, à invasão de nossa privacidade por meio do acesso a dados pessoais, e à amplificação de modelos preconceituosos que infelizmente ainda existem. Isso tem levado a um movimento internacional em defesa do uso responsável da IA: a Inteligência Artificial Responsável, a qual engloba aspectos como Reprodutibilidade, Transparência, Privacidade e Justiça.

 

Na maioria das vezes, esses aspectos estão relacionados ao uso de algoritmos de aprendizado de máquina (AM), que aprendem a construir modelos a partir de um conjunto de dados. A reprodutibilidade, no caso, implica a disponibilidade de toda a informação necessária para que qualquer outra pessoa, ao aplicar os mesmos algoritmos de AM aos mesmos conjuntos de dados obtenha os mesmos modelos e resultados.

 

Já a transparência deve permitir que a forma como um modelo gerado toma uma decisão que afete a vida das pessoas seja clara, para que qualquer pessoa possa compreender. Essas decisões incluem, por exemplo, se uma pessoa tem direito ou não a um empréstimo bancário, se alguém está ou não com uma dada doença, se um doente deve seguir um tratamento ou outro. Isso faz com que os modelos gerados por algoritmos de AM sejam divididos em caixa preta – quando não é claro como o modelo toma uma decisão –, e caixa branca.

 

A transparência está fortemente associada com a confiança das pessoas nas decisões tomadas por sistemas que usam IA. Quanto mais transparente o modelo, mais confiança as pessoas têm nas decisões. A importância dessa transparência é reforçada uma linha da IA, chamada IA “explicável” (XAI, do inglês Explainable AI).

 

Preocupada com o crescente uso de dados, em 2016 a União Europeia atualizou suas diretivas para proteção de dados por um regulamento mais inteirado, o Regulamento Geral sobre a Proteção de Dados (GDPR, do inglês General Data Protection Regulation). O GDPR regula a coleta, o armazenamento e o uso de informação pessoal. Uma das regras que fazem parte do GDPR é o direito a explicação. De acordo com esse direito, organizações públicas, privadas e sem fins lucrativos que utilizem dados pessoais de cidadãos da União Europeia tem a obrigação de garantir o processamento justo e transparente de tais dados. Isso deve ocorrer disponibilizando a esses cidadãos informações de fácil compreensão sobre a razão por trás da decisão tomada por alguns sistemas de tomada de decisão automatizada. Mesmo assim, ainda não foi alcançado um consenso sobre o significado e abrangência do direito a explicação. O GDPR também dá aos órgãos europeus de controle de uso de dados um grande poder investigativo, eficientes ferramentas corretivas e permitem a aplicação de multas de valores muito elevados. Assim, o GDPR aumentou tanto direitos quanto punições.

 

Outros dois aspetos importantes do uso responsável da IA são a privacidade de dados pessoais coletados, armazenados, utilizados e compartilhados, a fim de evitar que decisões tomadas por algoritmos de IA sejam preconceituosas, levando em consideração aspectos como classe social, credo, doença preexistente, idade, nacionalidade, orientação sexual e raça.

 

Em 2018, o Congresso Brasileiro aprovou uma legislação similar, a LGPD (Lei Geral de Proteção de Dados), que deverá entrar em vigor em 2020. Leis como o GDPR e a LGPD são ferramentas importantes para aumento da transparência da IA, o que também ajuda a reduzir um dos problemas do uso de modelos gerados a partir de dados: a presença de preconceito na tomada de decisão.

 

Fonte: Jornal da Ciência, 20/02/2019, com informações O Globo

 
free poker
logo_rodape
Agência de Inovação da UFSCar - Rodovia Washington Luís, km 235 - Caixa Postal 147 CEP: 13565-905
São Carlos, SP - Brasil - Tel: (16) 3351.9040 - inovacao@ufscar.brmaps
mapa