Um grupo de especialistas da União Europeia divulgou na última semana um documento com diretrizes éticas para nortear o desenvolvimento de tecnologias de inteligência artificial. Estas são utilizadas em diversas atividades, da seleção as publicações mostradas nas redes sociais a sistemas de avaliação de crédito.

O termo inteligência artificial é empregado para caracterizar sistemas que ofertam serviços a partir de uma sofisticada capacidade de processamento de informação, semelhante ou até superior à de seres humanos. Determinadas tecnologias já tiveram desempenhos melhores do que de pessoas, seja em um jogo, em um diagnóstico ou no reconhecimento de imagens ou textos.

O documento faz parte de um processo da União Europeia para estabelecer uma visão “centrada em humanos” para a construção de soluções “confiáveis” desse tipo de sistemas. Esta pode se materializar tanto em legislações e normas administrativas como em orientações gerais para os fabricantes e projetos de pesquisa.

Uma diretriz é a relevância da participação e do controle dos seres humanos, com objetos técnicos que promovam o papel e os direitos das pessoas, e não prejudiquem estes. Uma orientação complementar é a garantia de que os sistemas considerem a diversidade de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe, entre outros), evitando atuações que gerem discriminação.

Segundo o documento, os sistemas de IA devem ser “robustos” e “seguros”, de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências. Esses problemas podem ter sérios impactos na sociedade, como a discriminação de pessoas no acesso a um serviço ou até mesmo quedas de bolsas cujas compras e vendas de ações utilizam essas tecnologias.

Ao mesmo tempo, o texto destaca a necessidade de assegurar a transparência dos sistemas. Isso porque a opacidade dessas tecnologias pode trazer riscos, uma vez que seu caráter inteligente torna mais difícil entender porque determinada operação ou decisão foi tomada de uma determinada maneira e não de outra. Assim, os autores defendem que um sistema de IA deva ser “rastreável” e “explicável”, para que não haja dificuldades na compreensão de sua atuação.

Pelo documento, essas soluções técnicas devem assegurar a privacidade e o controle dos cidadãos sobre seus dados. As informações coletadas sobre um indivíduo não podem ser utilizadas para prejudicá-lo, como em decisões automatizadas que o discriminam em relação a alguém. Estudos já mostraram como essas tecnologias podem incorporar vieses, privilegiando, por exemplo, pessoas brancas em detrimento de negros na caracterização ou na oferta de um serviço.

O vice-presidente para o Mercado Único Digital da União Europeia, Andrus Ansip, destacou a importância do tema. “A dimensão ética da Inteligência Artificial não é só um luxo ou um acréscimo. É somente com confiança que nossa sociedade pode se beneficiar plenamente dessas tecnologias. Uma IA ética é uma proposta que traz ganhos e que pode ser uma vantagem competitiva para a Europa: ser uma líder de tecnologias de IA centradas em pessoas que usuários possam confiar”.

Fonte: EBC

ÚLTIMAS NOTÍCIAS

  • Hemose realiza homenagens para Dia Nacional do Doador de Sangue

    Nesta segunda-feira, 25, será comemorado o Dia Nacional do Doador [...]

  • Anvisa atualiza composição de vacinas contra covid-19

    A Agência Nacional de Vigilância Sanitária (Anvisa) aprovou  a atualização [...]

  • Sergipe alcança a menor taxa de desemprego da história

    A informação foi confirmada pelos dados da Pesquisa Nacional por [...]

  • Taxa de desemprego das mulheres foi 45,3% maior que dos homens

    A taxa de desemprego entre as mulheres ficou em 7,7% [...]

  • Setor aéreo registra o melhor outubro da história com cerca de 8,3 milhões de passageiros

    O setor aéreo brasileiro registrou o melhor mês de outubro [...]